Anant Agarwal: “Why massive open online courses (still) matter” i moja praca mgr :)

2014.01.29

” I hated going to class at 8 o’clock in the morning, so why are we forcing our kids to do that? So instead what you do is you have them watch videos and do interactive exercises in the comfort of their dorm rooms, in their bedroom, in the dining room, in the bathroom, wherever they’re most creative. Then they come into the classroom for some in-person interaction.”

a tu z podsumowania z mojej pracy mgr 2001r.:”Nauczanie na odległość wydaje się być nieuniknione, bo jest po prostu naturalnym krokiem wprzód społeczeństwa doby telematyki. Sytuację tę można zobrazować posługując się paralelą i porównując ją do wynalezienia pilota do telewizora. Bo o ileż wygodniej będzie studentowi obudzić się zimowym rankiem, gdy jeszcze ciemno za oknami i zamiast ubierać się i szybko, bez śniadania, biec na uczelnię, włączyć komputer i siedząc w łóżku, zagryzając bułkę i popijając mlekiem, śledzić wykład na ekranie monitora.
Podobnie można sobie wyobrazić oszczędność czasu studenta, który nie będzie już musiał przedzierać się przez centrum miasta w godzinach szczytu i spędzać połowy życia w zatłoczonych tramwajach. Nie będzie on uzależniony od pogody ani od punktualności środków komunikacji miejskiej. Zaoszczędzi na biletach i pomocach naukowych. Nie będzie kserował notatek z wykładów, w których nie mógł uczestniczyć, tylko obejrzy nagrany wykład w późniejszym terminie, ‘ściągając’ potrzebne do niego materiały.”
- skąd ja czerpałem inspirację? :)

opaska zamiast rękawicy

2013.11.29

opaska zamiast rękawicy

MYO to ten sam pomysł, co z rękawicą o której pisałem tu http://marekopel.wordpress.com/2012/08/02/mobilny-wyswietlacz-bez-projektora-i-ogolnie-o-interfejsach-mobilnych-i-filmowych/

tylko przesunięty bliżej barku – zawsze to jakiś postęp :) 

[old] Chrome 29 for Android is out: WebRTC and Web Audio support

2013.11.21

http://thenextweb.com/google/2013/08/21/chrome-29-for-android-is-out-webrtc-and-webaudio-support-improved-scrolling-and-new-color-picker-for-web-forms/

chciałem sprawdzić (zapomiałem, że wiedziałem) czy WebRTC działa w Chromie na Androidzie.. działa…

ale przy okazji zobaczyłem Web Audio w praktyce (syntezator)… wszystko dla Chromebook’a :)…

choć na Androidowym Chromie działa to tak samo :)

teraz tylko czekać, aż ChucK będzie działał w przeglądarce… albo na webową wersję FL Studio czy Ableton ;)

konkurencja dla Google czy powstanie “Nissan Nexus”?

2013.09.05

tak sobie myślę: “a ludzie już dziś nie chcą, że auto samo hamowało, gdy zbyt szybko zbliża się od przeszkody… (a to może być dziś montowane fabrycznie, ale opór konsumentów)”

ja jak zwykle jestem na drugim biegunie… chociaż… czy odważę się puścić kierownicę jadąc przez wioski? albo pozwolę samojazdowi, żeby sam po mnie przyjechał na lotnisko?

ale dla samego usecase’u stania w korkach: po co godzinami gapić się na tablicę rej. przed sobą i co kilka minut podjeżdżać po kilkanaście metrów? nie lepiej położyć oparcie i wziąć tablet do ręki? jakie jest ryzyko wypadku? zagrożenie dla życia? lim(ryzyko) = 0

Niejednoznaczność MIDI -> sheet (zapis nutowy) <- gorzej niż można się spodziewać :(

2013.07.07

Zajmuję się ostatnio parsowaniem MIDI i coraz szerzej otwieram oczy jak bardzo niejednoznaczny on jest względem zapisu nutowego czy np. notacji ABC

MIDI zapisując każdy dźwięk utworu jako zdarzenie, które mówi m.in. o:

  • instrumencie (brzmienie),
  • numerze klawisza (wysokość dźwięku),
  • sile wciśnięcia klawisza (głośności, zmiennej w czasie trwania dźwięku)
  • i – krytycznej dla tego posta – długości dźwięku (mierzonej w tickach, a w nagłówku powinno się podać ile ticków to ćwierćnuta)

wydaje się na tyle precyzyjnym zapisem, że automatyczna transkrypcja powinna być jednoznaczna.

Pomińmy inne parametry i skupmy się na długości dźwięku, z którego wydawałoby się można by wyciągnąć wartość nuty. Rozumiem, że nagrywając zdarzenia przez MIDI IN (a nie wpisując ręcznie na pięciolinię) nie zawsze uderzy się klawisze dokładnie w tym ticku i przytrzyma odpowiednio długo. I rozumiem, że nie wszyscy robią później kwantyzację (auto dopasowanie “nagrania” MIDI, tak, aby zdarzenia ‘note on’ i ‘note off’, czyli początek i koniec dźwięku wypadały czasowo w wielokrotnościach trwania ósemki, szesnastki  czy czego tam się ustawi). Ale dlaczego utwórz, który wpisywałem myszką wygląda inaczej w każdym programie, którym go otworzę?

OK, niech będzie, że jak wpisuję całą nutę, to program nie daje jej tyle ticków, co suma czterech ćwierćnut, żeby pomiędzy taktami była mikropauza (że dźwięk nie jest ciągły – w przypadku piano, to nie taki problem, bo dźwięk wybrzmiewa;  gorzej np. z organami), ale dlaczego drugi program interpretuje to jako półnutę z kropką?!?

Pomyślałem, że to może problem moich MIDI (nawet nie pamiętam w jakim programie je wpisywałem), więc wziąłem pierwsze z brzegu MIDI, proste, jednoznaczne: ‘Let It Be’ (stąd)

w 4 programach otworzyłem i zrobiłem screenshot (pierwszy takt inro, proste wybijanie C-dur i G-dur, no może z septymą) :

MIDI-LetItBe

No dobra, OK, ilość ticków pomiędzy wartościami nut,  inne ustawienia kwantyzacji przy imporcie MIDI,  naciągnął nutę w drugą stronę, OK, niech wyświetla się to inaczej… ale SZOK! te MIDI nawet się odtwarzają inaczej!!! inne długości nut i pauz są odtwarzane! tego to już nie rozumiem… :(

I jak tu teraz porównywać muzykę zapisaną w MIDI?

Koledzy muzycy macie jakieś doświadczenia?

Echo Nest – muzyczne metadane w praktyce

2013.04.23

cała lista dem: http://static.echonest.com/labs/demo.html pokazuje jak można wykorzystać ich API we własnej aplikacji… rzeczywiście można wykorzystywać ich metadane w tle (nie pokazując użytkownikowi) tworząc własną wersję Pandory, albo jawnie tworzyć zestawienia i diagramy jak np. tu: http://static.echonest.com/ArtistX

WebRTC: wideokonferencja wyłącznie za pomocą HTML5

2013.02.13

skoro przeglądarka jest już playerem dzięki tagom <video> i <audio>, to może też być klientem P2P video call…

w wieku XX można było osadzić komponenty NetMeeting’a w HTMLu, ale oczywiście działało to tylko w IE… np. tak to wyglądało:

Pokój do Konsultacji w systemie StOPKa

from http://www.zsi.pwr.wroc.pl/zsi/missi2002/pdf/s608.pdf

ale teraz nie chodzi tylko o umiejętność interpretacji HTML przez przeglądarkę (w w/w przypadku pseudo-standardu MS HTML), ale o interop. czyli zrozumiałą komunikację P2P różnych przeglądarek… czyli już nie tylko muszą rozumieć serwer (html), ale i siebie nawzajem…

 

Paperman w 2.5D

2013.02.09

to, że Paperman wygląda na 2.5D (trochę jak 3D, a trochę jak tradycyjna poklatkowa kreskówka), to dlatego, że tak jest :)

Jak się okazuje na renderowane obiekty 3D nakładane są oryginalne rysunki, animowane przez tweening, taki jak np. w Macromedia (teraz Adobe) Flash…

Widać to świetnie tu:

Zauważam tu analogię do tego, co technika zrobiła z animacją w 101 Dalmatians (1961) poprzez wprowadzenie ksero do procesu… nagle animatorzy zaczęli widzieć na ekranie swoje rysunki, a nie wersje kalkowane przez osoby trzecie…

od 2:55

Jeszcze lepiej widać tę analogię, w przypadku tła, gdzie na tradycyjne tło nałożone są kserowane rysunki, dzięki czemu tło jest w tej samej stylistyce, co postaci

od 1:02

Chyba nie tylko ja widzę analogię, skoro YT zaproponował mi ten film o Paperman’ie, gdy oglądałem dokument o Dalmateńczykach :)

Kolejny kroczek Google w kierunku Semantic Web

2012.12.19

Introducing Data Highlighter for event data

 

 

nauczyłem Google’a struktury naszych instytutowych aktualności (patrz pic)

 

structured

 

ciekawe kiedy będzie widać efekty? :)

Open Access Explained!

2012.11.05

keeping us (non-subscribers) in dark ages is journals’ best business model… luckily the dark ages are supposed to be over ;)

https://plus.google.com/111176425687956871115/posts/i7yNUd1ym4Y


Follow

Otrzymuj każdy nowy wpis na swoją skrzynkę e-mail.