Web Music Developer Meetup @札幌に行ってきました
開催日の前日に、
これからの音楽がWebAudio APIでこんな大変なことになると説いて貰ったので、
これは行かないとヤバいな!と思って行ってきました。
WebAudioに関していうと、
出始めの頃はなんとかクローンみたいなシンセがWebで動くよー!みたいな感じで、
「それ、ハードウェアで持ってるわー。」って遠巻きに見ていたのですが、
前日に説いて貰った時に、ストリーム中継を見ながらネット越しにFキーを押すと、
ライブ会場のスクリーンにfの文字が映し出されるアレ(*1)を思い出して、
これはヤバいな!って判断しました。
1日経っての感想としては、
なんとかクローンが出るというのは、
みんな音が出る楽器としての期待が高いのかなって思いました。
現時点の解釈としては、音、映像、MIDI信号もごちゃまぜにできて、
音と映像を同時に出力できる楽器と考えてみると、
ブラウザさえあれば演奏家がVJに頼らず映像も出力できるというのは強烈でした。
まぁ、「それってすでにあるでしょ。」って言われればあるんだけど、
自分にとっては、JavaScriptで動くし、URLだけ渡して見て貰えるという点で、
JavaScriptを覚えるモチベーションになるかなーって思ってる次第です。
散々、Perlでフラクタルとか書いてるので、
今度はJavaScriptで書き直すのかーっていう部分は少なからずありますが。
あと、デモやLTの感想について。
FM信号をブラウザで視覚化するの、ヤバいですね!
これ、いろんなリモコンを持ち寄って。。。
スマートフォンが揃うことでフレーズが完成するっていうのは、
未来感が凄すぎて、刺激的過ぎました!
OSC,MIDI,WebSocketのコンバートはクールですね!
OSCの自由度は・・・、MIDIコントローラーの設定変更すらやんないです><
そんなこんなで、
WebMIDIを使ってシーケンサー作れるところまでは頑張りたいですね。
追伸
Git Push, Git Pullなるプリセット音色が存在するのは、HELSINKIでした。
おしまい。
(*1) 今調べてみたけど、「Internet Conference’97」のことっぽい
Leave a Comment