「AI依存症」という怖さ
»
ここのところ、「AI」という言葉が、新聞に掲載されない日はないんじゃないか、と思わせるほど、毎日のように「AI」という単語が飛び交っています。
その中でも、Open AI社のChatGPTという文字が、飛び抜けて目立つ気がしています。が、本当に使いこなしている、有用に使いこなしている、という企業は、いったいどのくらいあるのか、という疑問も湧いてしまいます。
日本経済新聞に、こんな記事がありました。
ChatGPTによるコード生成機能が注目されるようになったことで、この機能をどのように使うかを紹介するブログ記事もよく目にするようになった。
先日、そうしたブログ記事の1つを見ていて、気になることがあった。その記事では、「自分には内容を理解できないほど複雑なコードが出力された」としつつ、そのコードの出力結果を紹介していた。ChatGPTを使えば、自分ではコードを書けないような複雑な処理でも行えることを示したかったのだろう。
しかし、私はこのブログ記事を読んで微妙な気持ちになった。「コードの内容が分からないのなら、なぜ正しく動いているといえるのか」と思ったのだ。一見正しそうな結果が出ていても、本当に正しいとは限らないのではないか。
AIでは、人間が考えるよりも複雑なことができることは知られています。
しかし、間違った回答である可能性を否定できないことも事実ですよね。
AIの回答を、何の検証もせず、鵜呑みにしてしまうと、とても危険だと言えます。
もちろん、AIは進化していますので、全面否定することも良くないと思っています。ただ、AI依存症になってはいけないな、と感じた記事でした。
SpecialPR