kitaaaaaa https://t.co/OLkn7MoNU7
iOS には前から Core MIDI ってのがあって、MIDIの入出力をアプリからAPIで利用することができたんだけど、 Android は、6.0(SDK 23)から Android MIDI ってのができたらしいです。 いままで Android で MIDI を使うために Kaoru Shoji さんとか、いろいろと頑張ってるひとがいたんだけど、それがやっと OSレベルで対応されたってことです。 そして、Android MIDI では Apple の BLE MIDI 規格も使えるそうなので、それをやってみます。 Apple の BLE MIDI 規格が使えるってことは、Macとつなぐこともできるってことなんだけど、せっかくだから今回は以前作ったコレを使いました。 コレは何か簡単に説明すると、自作のMIDIコントローラーです。 8の字に空いてるところがタッチセンサーになっていて、ワニ
最近KAOSS DJで遊んでて,きのうMIDIイベントを受け取るところまでできたので,もうちょっと知的なことをやってみる. フェーダーに応じて姉を出す クロスフェーダーの値に応じて文字を出してみる.UniMIDIでイベントを受け取って,182番のときだけ値を見てなんかする.182番はクロスフェーダの操作で,3番目にフェーダーの位置が入ってる. require 'bundler' Bundler.require input = UniMIDI::Input.first.open loop { events = input.gets events.each{|event| data = event[:data] next unless data[0] == 182 size = data[2] / 127.0 * 30 puts '姉' * size } } sketch-midi/ane.r
DTMで「なかなか難しいな……」といつも感じるのが、「譜面をどうやって演奏させるか」ということです。もちろん、難しいからこそ面白いところでもあるのですが、同じ譜面でも、それを実際の音で鳴らしたときにどうなるのかは、人によって表現方法も、音もまったく違ってくるんですよね。 譜面では、音符の長さが何msecか、というように厳密な時間は決められてないし、ffとか、mpと書かれていても音量が何dBかハッキリ決められているわけもありません。もちろん音源や音色だって何を選ぶかで出音はまったく変わってくるし、エフェクトの設定やミックスによっても音は大きく違ってきます。つまり譜面を読む人、解釈する人によって、最終的な音楽はまったく違うものにもなるわけです。そこで、譜面とMIDIデータ、そして最終的な音楽作品がどんな関係にあるのかを考えてみたいと思います。 譜面とMIDIデータ、そしてそれを演奏した音楽には
This is where it all began. The Launchpad was the birth of the grid system that fuelled an evolution in electronic music. It's time you joined in. ", "nextArrow": "", "dots": false, "arrows": true, "slidesToShow": 4, "slidesToScroll": 4, "autoplay": false, "responsive": [{"breakpoint":1024,"settings":{"slidesToShow": 3, "slidesToScroll": 3, "dots": false, "arrows": true, "autoplay": false }},{"bre
Android版のChromeでWeb MIDI APIがサポートされたということを知り、さっそくテスト。Android端末をつい最近購入したばかり(中古だけど)。Web MIDI APIをAndroidで動かしたい。ほぼそのためにAndroid端末を新たに調達したと言ってもいい。 まずはUSBホストケーブルが必要。USB On The Go (OTG)とかいうやつ(あんまり知らない)。100円ショップのセリアで買ってきた。108円なり。Android端末からの電源では足りないので、ACアダプタ付きのUSBハブも用意。これは1000円ちょっとだったか(これは別の用途に買ってあった)。 使うアプリはChrome Beta(以下、面倒なのでChrome)。バージョンは34(小数点以下あるけど割愛)。このバージョンからサポートされた模様。以下のURLを開いて、有効にする。その後、Chrome再起
Fluentd Advent Calendar 24日目の記事です。 家にあるMIDIキーボードからMIDI信号をひろってFluentdにとばすという、誰得な工作をした。CPUやOSを使わず、MIDI信号のデコードからTCP接続、FluentdのMessagePackエンコードまで、すべてハードウェア実装なのだ。 まずはデモ動画をどうぞ: MIDI keyboard + DE0 + Fluentd demo MIDIキーボードを叩くと、Mac上のFluentdにMIDIメッセージが送られ、Fluentdのログとして表示されてるのがわかる。以下、このデモの中身を解説したい。 MIDI→DE0→WIZ→Fluentd このデモの構成はこんな感じ: 以下、それぞれのコンポーネントの役割を見ていこう。 MIDI信号のデコード MIDIキーボードから送られてくるMIDI信号のデコードは2年前に作った
Web MIDI API W3C Working Draft 27 November 2024 More details about this document This version: https://www.w3.org/TR/2024/WD-webmidi-20241127/ Latest published version: https://www.w3.org/TR/webmidi/ Latest editor's draft:https://webaudio.github.io/web-midi-api/ History: https://www.w3.org/standards/history/webmidi/ Commit history Test suite:https://github.com/web-platform-tests/wpt/tree/master/we
ブラウザとMIDIの出会いが拓くWebとMusicの新しい世界「HTML5 Conference 2013」 馬場 美由紀(HTML5 Experts.jp編集部) Web MIDI APIはWeb Audio APIと並ぶ音楽系のAPIです。あまり馴染みのないMIDIですが、Web MIDI APIを使うことであらゆる電子楽器とブラウザの接続が簡単にでき電子楽器からブラウザ上のアプリケーションを操作、また逆に、ブラウザ上のアプリケーションから電子楽器を操作することが可能です。 「HTML5 Conference 2013」では、MIDIの基礎、Web MIDI APIの概要、また10月末に発表された音声合成技術について、AMEI Web MIDI WG/ヤマハ株式会社の河合良哉氏が紹介。ハードウェアに搭載したLSI「NSX-1」を1ボードに収めた「eVY1 SHIELD」を使ったデモアプ
MIDI モニター Web MIDIアプリケーション アプリケーション はこちらをクリックして下さい。 MIDI Send And Receive このアプリケーションは、MIDIデータをSystem Exclusiveを含めて受信、送信を行うことができます。 アプリケーション はこちらをクリックして下さい。 Raspberry Pi ZERO OTG - コマンドラインで確認 Raspberry Pi ZeroとPCとの、MIDIによるメッセージ交換をコマンドラインで行う場合を追記しました。 まずechoコマンドで、MIDIのバイナリファイルを作成します。 > pi@raspberrypi:~ echo -n -e "\x90\x66\x77" > midi.bin 次に、amidiコマンドでメッセージを送信します。 > pi@raspberrypi:~ amidi -p hw:0,0,
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く