Android翻訳→Siriは、うまくいったりいかなかったり
ソフトバンクの顧客管理システムダウン(新百合ヶ丘のショップ)のおかげで、予定より2日遅れて我が家にもiPhone 4Sがやってきました。Androidの翻訳アプリが音声入力/読み上げに対応したという記事を書いたときからやってみたかったことを早速実験しました。
Siriさん(米国英語は女性の声。男性にしたかったら設定でEnglish(UK)を選ぶ)との会話で、Androidに通訳になってもらうんです。
でもねー。まずAndroidくん、聞き取り能力は結構高いのですが、翻訳はちょっと不思議なときがあります。翻訳しやすい日本語を考えて話しかけないとだめ。例えば、「愛しています」と言うと「We Love You」になるですよ。で、「私はあなたを愛しています」と言ったらなぜか「I Love Ya」とちょっとフランクに。
取りあえずSiriさんにAndroidくんから「I Love Ya」と告白させたんですが、「I Try To Remember That」というお返事になってしまいました(「I hope you don't say that to those other mobile phones」と言ってくれることになってるはずなんですが)。
んで、気を取り直して有名な「HAL9000を知っていますか?」に挑戦。まず、Androidくんはちゃんと「hal9000を知っていますか」と聞き取ってくれました。念のために「?」を追加して翻訳してもらうと「Do you know hal9000?」になり、これをSiriさんに聞いたら、お約束通り「Everyone knows what happened to HAL. I'd rather not talk about it.」と答えてくれました。2人は意思疎通できるようです。
ところで、先週の金曜日に開催されたオルタナブロガー月例会で講師の一瀬さんがデモしてくださった「モバイル型遠隔情報保障システム」にびっくりしました。システムについては一瀬さんのブログを読んでいただきたいのですが、何にびっくりしたって、一瀬さんが普通の速度でお話ししている内容が、Webページの画面上に10秒くらい遅れて正確なテキストになって表示されるんですよ。どんなソフトを使ってるんだろうと思いました。
そしたら、人力だっていうじゃないですか。沖縄に待機している何人かのグループで、一瀬さんの話をiPhone経由で聞き取って、入力してるんですって! AndroidもSiriもがんばってますが、まだ当分は人力にはかなわない気がしました。
こういう、「聴覚障害者への情報保障手段の1つとして、話している内容を要約し、文字として伝えること」を「要約筆記」というのだそうです。
いつか遠い将来、スマートフォンの音声入力/読み上げ機能がものすごく発達すれば、耳が聞こえなくてもスマートフォンを介してかなりの速度での会話ができるようになる日が来るかもしれませんが、その前に、多くの人がモバイル型遠隔情報保障システムを利用できるようになりますように。