Win10の音声アシストに「Heyコルタナ」と言うだけで個人情報が盗まれるって
ここ数年?(数十年?)の天気はどうなっちゃったのでしょうか? 今日は(2018/06/29)まだ6月ですが、関東地方梅雨明けのようです。これセキュリティ的に言うと…って言いようがありません(爆)、単純に暑いだけ! 誰しも年々歳を取るわけですが、私の記憶が確かならば「今年の夏は暑い!」と、ここ10年くらい聞き続けています。10年続いているならば随分暑くなっているはずですが、どうでしょうか?
やはり、記憶違いかもしれませんw
スマートスピーカーなどの普及にともない、音声アシスタントは我々の生活にもおなじみになってきた。アマゾンのAlexa、Google Home、マイクロソフトのコルタナなどを利用している人もいるだろう。しかし、便利な機能の中には、時に危険が潜んでいることがある。マカフィーラボは12日(現地時間)、マイクロソフトに対してWindows10と音声アシスト・コルタナのデフォルト設定の脆弱性を報告したと発表している。
これ面白いマズイですね。既に対応パッチが当たっているので試すことが出来ませんでした。
早めにWindowsUpdateをしましょう!という話ですが、これ早めにすると人柱になることも結構な確率で当たるので、なんともですねぇ。パッチやこの脆弱性など、気になることは社内の情シスの方々に確認して下さい。
先日見たニュースでは、アマゾン「アレクサ」がおもむろに呟いたひと言に背筋が凍る
ある日、観ていたテレビ番組を一旦停止してキッチンで所用を済ませ、「アレクサ」が置いてあるリビングルームに戻って来たところ、なんの合図もしていないのに「アレクサ」が突然喋り出し、こんな言葉を呟いたという。
「目を閉じるたびに私に見えるのは、人々が死んでいく姿だけです」
なんてのもありました。こっちはこっちでヤバイですねぇ。いろいろなタイミングが悪かった「単なる誤動作」なのでしょうが…なんとも言えない恐さがあります。
スマートスピーカーだと、こんな事例もあるようです。
Amazon Echoが“突然笑い出す”怪現象とは何だったのか
Alexaが夫婦の会話を勝手に録音して部下に転送 非常に珍しいが対処するとAmazon
本当にあったスマートスピーカーの怖い話まとめ
聞き間違えな場合
昔イベントコーディネーターをしていたときの話です。その方バスの運転手さんなのですが、訛りが凄くて所々聞き取れない。
運:今日は「***」かい?
私:えっ?
・・・このやり取りを3-4回繰り返す。。。。
宿泊を伴う仕事で、運転手さん2名でした。「ホテルの部屋はツインか?」という質問でした。正しく聞き取れれば「ツイン」かい?と解るはずなのですが、ツインの3文字でなく、かい?も含めた5文字で認識すると、前後の文脈がないと難しい。
それ以降、同じ質問や話でも、別な言い方をして再確認するようにしています。今でもしてます。時間ならば、16時に打合せで!という話であれば、夕方4時、16時ですね。という具合。
もしかしたら、人間の聞き取り能力よりも、今時機械のがいいのかも?
ちなみにセキュリティ的には、これ全然OKです。パスワードなんかを言葉で伝える機会はあってもそれはダメですよ。よくあるのが、入力時にブツブツ言いながら入力する方々。。。これ意識してない行動ですし、心の声なんかが漏れちゃうようなもの。しかし!人間が聞き取れないのだから(私だけかも)これはある意味最強なこと。。。ということで。
自分だけの個人情報を自ら漏らすだけならば…って話
前回のセキュリティ的にどうよ?という事例を考える_会話編など、自ら漏らしている現実を考えれば、コルタナの脆弱性なんて…と思います。自身の個人情報を自ら漏らすなら誰にも迷惑かけません。でも、その程度の認識だと他にも漏らしてますね(経験上
まぁツバも上を向いて吐けばかぶるってことです。機械が勝手に漏らすのも困りますが、どうにもならないならば諦めるか、使わないことしかないですね。しかし自分だけで出来ることならば、多少意識した努力くらいはしてもいいのでは?と思うのです。