入力インタフェースによる「正確さ」と「ストレス度」(マウス、音声認識、マルチタッチスクリーン、そして未来)
入力インタフェース。
それは今までいろいろと考えられ実用化されてきた。そしてまだまだ研究され続けている。
例えば、
キーボード、マウス、ゲームパッド、音声認識、タッチペン、タッチスクリーン、GPS、加速度センサー、モーションコントローラ、視線入力、脳波入力等々。。。
ここで重要なことは「正確さ」である。
まずマウスであるが、当初はボール式で精密さに欠けていた。
しかしその後光学式、そしてレーザー式と精密なマウスがでてきてストレスがなくなった。
ただ、ワイヤレスになってからは初動がワンテンポ遅れるのがストレスになっているが。。。(初動が遅れないワイヤレスマウスがあれば探してみようと思う。)
そして音声認識のように認識率が未だに満足しにくい(当初に比べてかなり精度が上がっているのは事実)入力インタフェースは、入力者にストレスがかかり継続的に利用してもらえない。特に入力者ははっきり話したと思っても音声認識側が間違った言葉で認識したらストレスになる。そう入力者の”感覚”とずれるとストレスが増すのある。
例えば、タッチペンで入力した文字認識の場合は書いた字が見える。こう書くと認識されないというのが分かる。そして、こう書けば認識されるというのも分かる。
音声認識の場合、話した言葉が見えないため入力者がこう話したと感じていてもそれと違う認識結果の場合はその違いが分からないからだ。
特に満足しにくい原因がマイクの性能であったり、周りの雑音であったり、マイクとの距離による入力ボリューム値であったりと音声認識エンジンの周りの部分が影響する場合がある。
このたびMicrosoftが発表したX360に搭載されるジェスチャー・コントロール・システム「Kinect」に音声認識が搭載されたそうである。
音声認識の認識率と活用方法はどうなのだろう。楽しみである。
今まで家庭用ゲーム機で音声認識が採用されていた経緯はあるが、極端な表現をすると正確に認識されなくてもゲームが進められるあいまいさが許される設計になっている。
ゲームだからできることであり、業務には向いていない手法である。
音声認識を批判しているわけではない、音声認識の場合は利用するシーンや手法を考える必要があるということである。
ただし、文字入力で考えた場合はキーボードから正確に入力しても日本語変換入力の精度によりストレス度が変わる。iPadに搭載されている日本語変換入力は精度が良いとは言い難く長文入力には不向きである。
その場合は音声認識で文字入力してご認識の部分だけ修正した方が早いケースもある。それも音声認識しづらい声の人もいるため一概に言い難いが。
そして、今では多く採用されてきているタッチスクリーンであるが、ご存知の通りそのタッチを広めたのが任天堂である。ニンテンドーDSで採用され、その使いやすさは定評がある。それは、人間にとって今まで書くことと同じことがスクリーン上で実現できるからである。また普段しているようにスクリーン上のボタンを指で押せば良い。
ニンテンドーDS以前にもタッチスクリーンは電子手帳等で採用されてきたが、今のタッチスクリーンブームはニンテンドーDSが起因だと言っても過言ではないと思う。
そして、そのタッチスクリーンをさらに進化したのがiPhone、iPadで採用されているマルチタッチスクリーンである。拡大・縮小やページめくり等、さらに直感力が増した。楽しいし使えるものになっている。
そして、将来の技術的な話で個人的に思うことがある。
入力したいこと(脳で考えていること)がキーボードやタッチパネル等のハードウェアを使用しないでリアルタイムに入力できるようになると、入力が速い。携帯端末に採用された場合は小さいキーボードで入力しなくても良い。満員電車で便利になるのでは。そう考えると画期的であろう。
ただし、脳の活性化を考えると指を使うキーボード入力が一番良いのかもしれないが。。。
もうひとつ。
今回音声認識を取り上げたのでそこで思い出したことがある。実用的な自動翻訳機の実現はいつになるのだろう。
音声認識の精度もそうだが、翻訳エンジンの精度もまだまだ鍛えないと難しそうである。