Hack Spotify, hack streaming

2015.06.29

on http://www.theverge.com/2015/6/23/8830029/eternify-spotify-loop-payments 

silent album, Eternify… już widzę, jak ktoś zakłada setki wirtualnych zespołów z badziewnymi trackami, a malware u zainfekowanych userów w kółko streamuje te tracki :)   bo wyświetlanie reklam już się nie będzie opłacało :)

Jeszcze długa droga przed streamowaniem, żeby model biznesowy działał choć trochę lepiej niż dotychczasowy, złodziejski znany od czasu winyli…

Tylko po co trwać w zeszłym wieku, skoro ten przyniósł nam social media i bezpośredni kontakt z artystą… model Patreon.com to jak na razie jedyny słuszny model. A przynajmniej bez złodziejskich pośredników.

Online phone number lookup (before answering)

2015.06.19

Właśnie skończyłem Google I/O 2015 Keynote i YT włączył Apple WWDC 2015 Keynote…
i tak chwilę oglądam i widzę, że iOS ma nową funkcję:

przychodzące połączenie, nr nieznany –> system przeszukuje maile i sugeruje kto to może być.

Świetny feature, chcę to na Androidzie!!
Ale nie tylko pocztę ma przeszukać, ale wszystkich znajomych (i nie-) na FB, G+ i we wszystkich bazach teleadresowych online. W końcu ma na to 2-5sek. zanim odbiorę.

A dla nieodebranych to już musi działać „na bank”!

Jak często dzwoni (właśnie) bank, kurier czy operator i nie wiadomo czy odbierać…. albo potem czy oddzwaniać… a samodzielnie Googlać się nie chce…

Android, czekam :)

Twój oddany user

Mining multimedia (time-lapse)

2015.05.22

http://grail.cs.washington.edu/projects/timelapse/

 

Real-Time Animation, also called “Live Animation” or “Real-Time Performance Capture”

2015.04.10

podobnie jak w NI mate (https://www.youtube.com/watch?v=wNSMgX5t1RQ&list=PL320FBEDAAD072961&index=41) i Motus (https://www.youtube.com/watch?t=480&v=DgBIsjivX5k), tylko zamiast Blendera jest Photooshop i Illustrator…
animacja live… czy jest na to jakaś nazwa? Real-Time Animation, also called “Live Animation,” or “Real-Time Performance Capture,”…. to w zasadzie avatar telepresence i surrogaci :)

Wearable, ale odwrotnie, tj. docelowo (i czego chcę od „nadgarstka”)

2015.02.19

http://thenextweb.com/gadgets/2015/02/18/neptune-duo-puts-phone-wrist-screen-pocket/

 

 

I to jest moim zdaniem bardziej logiczna wersja:
CPU na ręce, peryferia (wyświetlacz + klawiatura) w kieszeni…

Peryferia mogą być też na biurku: pełna klawiatura+mysz i monitor 21″+

Nadgarstek się nie zagrzeje bo i tak coraz więcej mocy obliczeniowej będzie z chmury, a sama opaska („zegarek”) zostanie – postulowanym przez Jeffa Jarvisa – digital ID.

Bo Neptune Duo mówi: zgubisz pocket (wyświetlacz) – nie szkodzi, on nie ma żadnych twoich danych.

Z digital ID – jeszcze lepiej: możesz zgubić wszystko, jeśli szybko to zgłosisz/zastrzeżesz (jak z kartą kredytową).

Ja czekam na takie digital ID również z powodów funkcjonalnych:

  • chcę płacić nadgarstkiem (nie telefonem)
  • chcę podejść do dowolnego biurka z końcówką (klawiatura+monitor) i zacząć pracować na moim pulpicie (już nie zależnie ile tego CPU jest na nadgarstku, a ile w chmurze)
  • równie dobrze zamiast monitora przy biurku, chcę mieć – wisząc nad przepaścią…  no dobra… na ściance :) – wyświetlacz w okularach… + oczywiście AR
  • chcę autoryzować ważne operacje (nie tylko finansowe) nadgarstkiem – tak jak to działa przy Two_factor_authentication na konto MS (logując się do @windowslive.com na obcym komputerze potwierdzam to kliknięciem na zegarku) –> czemu w przypadku @gmail.com muszę szybko przepisywać goopi kod ?!?
  • zagalopowując się: chcę, żeby nadgarstek był też wyświetlaczem –> źródłem hologramów a la Star Wars ;)

Anant Agarwal: „Why massive open online courses (still) matter” i moja praca mgr :)

2014.01.29

” I hated going to class at 8 o’clock in the morning, so why are we forcing our kids to do that? So instead what you do is you have them watch videos and do interactive exercises in the comfort of their dorm rooms, in their bedroom, in the dining room, in the bathroom, wherever they’re most creative. Then they come into the classroom for some in-person interaction.”

a tu z podsumowania z mojej pracy mgr 2001r.:”Nauczanie na odległość wydaje się być nieuniknione, bo jest po prostu naturalnym krokiem wprzód społeczeństwa doby telematyki. Sytuację tę można zobrazować posługując się paralelą i porównując ją do wynalezienia pilota do telewizora. Bo o ileż wygodniej będzie studentowi obudzić się zimowym rankiem, gdy jeszcze ciemno za oknami i zamiast ubierać się i szybko, bez śniadania, biec na uczelnię, włączyć komputer i siedząc w łóżku, zagryzając bułkę i popijając mlekiem, śledzić wykład na ekranie monitora.
Podobnie można sobie wyobrazić oszczędność czasu studenta, który nie będzie już musiał przedzierać się przez centrum miasta w godzinach szczytu i spędzać połowy życia w zatłoczonych tramwajach. Nie będzie on uzależniony od pogody ani od punktualności środków komunikacji miejskiej. Zaoszczędzi na biletach i pomocach naukowych. Nie będzie kserował notatek z wykładów, w których nie mógł uczestniczyć, tylko obejrzy nagrany wykład w późniejszym terminie, ‘ściągając’ potrzebne do niego materiały.”
– skąd ja czerpałem inspirację? :)

opaska zamiast rękawicy

2013.11.29

opaska zamiast rękawicy

MYO to ten sam pomysł, co z rękawicą o której pisałem tu https://marekopel.wordpress.com/2012/08/02/mobilny-wyswietlacz-bez-projektora-i-ogolnie-o-interfejsach-mobilnych-i-filmowych/

tylko przesunięty bliżej barku – zawsze to jakiś postęp :) 

[old] Chrome 29 for Android is out: WebRTC and Web Audio support

2013.11.21

http://thenextweb.com/google/2013/08/21/chrome-29-for-android-is-out-webrtc-and-webaudio-support-improved-scrolling-and-new-color-picker-for-web-forms/

chciałem sprawdzić (zapomiałem, że wiedziałem) czy WebRTC działa w Chromie na Androidzie.. działa…

ale przy okazji zobaczyłem Web Audio w praktyce (syntezator)… wszystko dla Chromebook’a :)…

choć na Androidowym Chromie działa to tak samo :)

teraz tylko czekać, aż ChucK będzie działał w przeglądarce… albo na webową wersję FL Studio czy Ableton ;)

konkurencja dla Google czy powstanie „Nissan Nexus”?

2013.09.05

tak sobie myślę: „a ludzie już dziś nie chcą, że auto samo hamowało, gdy zbyt szybko zbliża się od przeszkody… (a to może być dziś montowane fabrycznie, ale opór konsumentów)”

ja jak zwykle jestem na drugim biegunie… chociaż… czy odważę się puścić kierownicę jadąc przez wioski? albo pozwolę samojazdowi, żeby sam po mnie przyjechał na lotnisko?

ale dla samego usecase’u stania w korkach: po co godzinami gapić się na tablicę rej. przed sobą i co kilka minut podjeżdżać po kilkanaście metrów? nie lepiej położyć oparcie i wziąć tablet do ręki? jakie jest ryzyko wypadku? zagrożenie dla życia? lim(ryzyko) = 0

Niejednoznaczność MIDI -> sheet (zapis nutowy) <- gorzej niż można się spodziewać :(

2013.07.07

Zajmuję się ostatnio parsowaniem MIDI i coraz szerzej otwieram oczy jak bardzo niejednoznaczny on jest względem zapisu nutowego czy np. notacji ABC

MIDI zapisując każdy dźwięk utworu jako zdarzenie, które mówi m.in. o:

  • instrumencie (brzmienie),
  • numerze klawisza (wysokość dźwięku),
  • sile wciśnięcia klawisza (głośności, zmiennej w czasie trwania dźwięku)
  • i – krytycznej dla tego posta – długości dźwięku (mierzonej w tickach, a w nagłówku powinno się podać ile ticków to ćwierćnuta)

wydaje się na tyle precyzyjnym zapisem, że automatyczna transkrypcja powinna być jednoznaczna.

Pomińmy inne parametry i skupmy się na długości dźwięku, z którego wydawałoby się można by wyciągnąć wartość nuty. Rozumiem, że nagrywając zdarzenia przez MIDI IN (a nie wpisując ręcznie na pięciolinię) nie zawsze uderzy się klawisze dokładnie w tym ticku i przytrzyma odpowiednio długo. I rozumiem, że nie wszyscy robią później kwantyzację (auto dopasowanie „nagrania” MIDI, tak, aby zdarzenia ‚note on’ i ‚note off’, czyli początek i koniec dźwięku wypadały czasowo w wielokrotnościach trwania ósemki, szesnastki  czy czego tam się ustawi). Ale dlaczego utwórz, który wpisywałem myszką wygląda inaczej w każdym programie, którym go otworzę?

OK, niech będzie, że jak wpisuję całą nutę, to program nie daje jej tyle ticków, co suma czterech ćwierćnut, żeby pomiędzy taktami była mikropauza (że dźwięk nie jest ciągły – w przypadku piano, to nie taki problem, bo dźwięk wybrzmiewa;  gorzej np. z organami), ale dlaczego drugi program interpretuje to jako półnutę z kropką?!?

Pomyślałem, że to może problem moich MIDI (nawet nie pamiętam w jakim programie je wpisywałem), więc wziąłem pierwsze z brzegu MIDI, proste, jednoznaczne: ‚Let It Be’ (stąd)

w 4 programach otworzyłem i zrobiłem screenshot (pierwszy takt inro, proste wybijanie C-dur i G-dur, no może z septymą) :

MIDI-LetItBe

No dobra, OK, ilość ticków pomiędzy wartościami nut,  inne ustawienia kwantyzacji przy imporcie MIDI,  naciągnął nutę w drugą stronę, OK, niech wyświetla się to inaczej… ale SZOK! te MIDI nawet się odtwarzają inaczej!!! inne długości nut i pauz są odtwarzane! tego to już nie rozumiem… :(

I jak tu teraz porównywać muzykę zapisaną w MIDI?

Koledzy muzycy macie jakieś doświadczenia?


Obserwuj

Otrzymuj każdy nowy wpis na swoją skrzynkę e-mail.