オルタナティブ・ブログ > Mostly Harmless >

IT技術についてのトレンドや、ベンダーの戦略についての考察などを書いていきます。

ハルシネーションは今のままで良いのかもしれない ~AIとの関係は「従属」ではなく「切磋琢磨」で

»

このブログでも何度か書いていますが、現在の生成AIの仕組みにおいて、ハルシネーションをなくすことはできない、というのが通説になっています。

生成AIで起きるハルシネーションとは?企業が抱えるリスク・対策を解説

この記事にあるように、ハルシネーションの原因には学習データの問題、生成AIの仕組み上の問題、プロンプトの問題などがあります。さらに「何が正しいのか」ということそのものを定義することができない問題もありますから、これはもう仕方のないことなのだろうと思います。

animal_quiz_neko_batsu.png一般にはハルシネーションは悪いものとされ、生成AIベンダーはハルシネーションを少しでも減らすべく改良を続けています。しかし、このままハルシネーションが順調に減っていって、しかし最終的にはなくならない、ということであれば、未来はどうなるのでしょうか?間違いが減るのは良いですが、間違いが極限まで減ると、間違いに対する注意力が減ってしまうのではないか?という懸念が生じます。

たとえば、あるAIが質問10回に対して1回間違うとすると、AIの回答を頭から信じることはできません。AIの回答に対して毎回「本当か?」と疑うようになるでしょう。そういった習慣がつき、仕事の手順として「まずはAIに聞く」→「回答を疑い、ほかのソースにもあたる」というプロセスが確立されるのではないかと思います。しかし、これが1万回に1回となると、毎回疑いを持ち続けることができず、いちいち確認するという習慣もつかなくなり、深刻な事態を引き起こすことにもなりはしないでしょうか。

また、AIの回答が100%信頼できるとなると、人間は自分でものを考えなくなり、AIに従属してしまうのではないかという問題もあります。実際に、AIの言うことを真に受けて悲惨な事件に発展したなどという話もあり、訴訟に発展しているケースもあるようです。このような「AI依存」とも言える状態は、ハルシネーション問題を横に置いておいても、よろしくないことだと思われます。

となると、今くらいの「まあまあ信頼できるけど、数パーセントの割合でおかしなことを言うから、気を抜けないよね」という状況はそれほど悪くないのかもしれないな、とも思うのです。AIと人の関係は「従属」ではありません。「協働」という言葉が使われることもありますが、私自身は「切磋琢磨」ではないかと思っています。互いのリスペクトのもとに適度な対立と相互チェックの仕組みを取り入れ、より良い結果を目指していくというのが、正しい活用法ではないでしょうか。

AIはホワイトカラーの生産性を上げることのできる重要なツールであり、その可能性も非常に高いということに異論は無いと思います。完璧を求めすぎるあまりにそれを使うことを躊躇ったり、完璧を求めてかえってリスクを高めたりするのは正しい姿勢ではないのではないかと思います。

 

AI.png

Comment(0)