ある意味、不謹慎な発現かもしれないけど・・・
ALSの人とかで、目だけしか、動かない人とかいますよね。
で、その場合、意思疎通は、眼球運動っていうか、文字盤を用意して、
目を動かしてやってるけど、
(テレビで見る限り)あれって、おそいし、大変だと思うんですよ。
モールス信号のほうが、早いのでは?
モールス信号の音を、目の動きで表現する。
たとえば、仮に
目をつぶっているときが音が出ているとき、
開いているときが、音が出ていないとき
というように、音の出ているときと出ていないときの2つの状態を表現できれば
(なので、目を右に動かしたときが音が出ているとき、そうでないときは、
音が出てないときでもいい)
目を長くつぶってる=長音
瞬きしている=単音
ひらいている=何も音がない
となり、モールス符号を表現できる(モールス符号は、トンという単音、
ツーという長音の組み合わせ)。
日本語は覚えるの大変だけど、ローマ字で英語だと、モールス符号を覚えることは、そんなに難しくない(と思う。ウィリアムのいたずらの10代の経験から-今は・・使ってないから、自信ないな ^^;)。
で、その目の動きを、カメラで捉える
といっても、目のところをカメラで捕らえて、
肌色だったら、つぶってる
白(目)+黒(目)だったら、開いてる
とすれば、デジタルカメラ+パソコンで処理できる。
ズーム力にもよるけど、この程度なら、ケータイアプリでもできそう。
とくにケータイなら、そのケータイから、文字が表示されるなり、
(YAMAHAの音声生成装置を使って)声を出すなりできて、
さらに、それを、「メール送信!」ってやると、ご家族や介護者にも
届くってなれば、便利そう。
(キャリア儲かりそうとか、そんな不謹慎なことは言いません)
今までパソコン装置がないと、意思疎通できなかった人も、
ケータイで出来たら、行動範囲が広がるんじゃないかな?
で、さらに、「ROBOTKUN GO LEFT 2 M 」とかうつと、接続している
ロボット(物理的に接続してなくても、Bluetoothや赤外線でもいい)
が動いて、なにかやってくれるとかいうと、ちょっとしたことに、
使えて、いいかも。。
なんか、思うんですけど、
モールス符号って、もっと使い道あるんじゃないかって・・
超簡単な通信手段として・・