「ハルシネーションについてよく知らない」人が65%という現実
「プライベートで生成AIを利用する人の約65%が、AIが誤った情報を生成する「ハルシネーション」という現象を十分に理解していない」という記事がForbesに掲載されました。この数値はちょっと衝撃的ですね。
ハルシネーションについては、私もあちこちで話をしてきましたし、IT業界の関係者との会話の中では「常識」でしたので、この結果には驚きました。「プライベートで」ということですから、かなりカジュアルに「便利だよ」ということで使っている人が多いのでしょう。仕事で利用している人は、会社からの教育もあるはずですからね。
なにしろ生成AIは文章が完璧で、おまけに最近では「質問者に寄り添う」ような味付けもされているために、普通の検索よりも結果を受け入れやすくなるのでしょう。しかしこのブログでもさんざん書いているように、生成AIが間違うのはむしろ当然のことで、それを織り込んだ上で使わないといけません。先日のブログでも書いたように、もはや内容の正確さよりも口調の変化を気にしたり、最近頻繁に報じられるAIに促されての自殺など、AIの仕組みやリスクについてよく理解せずに使うと悲惨な結果を招くことになります。
それを考えると、先週書いたOpenAIのハルシネーション対策
「わからないことはわからないと言う」という、なんだかごまかされたような気にもなる対策ですが、広い層を相手に生成AIサービスを展開していく上では必要な措置なのかもしれません。それに、私たち自身も「知らないことは知らないと言える人になりましょう」とか「不確かなことは調べてから」など、わからないことをわからないと言えずに悪い結果を招くことはありますよね。その意味では、生成AIがまた一歩人間に近づいた、ということなのかもしれません。
とはいえ、これは生成AI利用者の裾野が急速に広がった結果であり、提供側としてはもっと啓蒙・教育に力を入れなければなりません。今も、たとえばGoogleのサイトではAI検索の最後に「AI の回答には間違いが含まれている場合があります。」といった注意書きは書かれていますが、字があまりに小さいですし、そもそもこういった検索結果を最後の小さい文字まで読むとも思えません。回答の中にそういった文言を盛り込むといったことが必要になるのかもしれません。学校教育などでの衆知が有効なのでしょうが、これだけ普及が速いと対応が追いつきません。メディアなどがもっとこの問題について発信していくべきなのでしょう。