オルタナティブ・ブログ > まあまあ元気になる話 >

IT業界での少し気分がアップする出来事、心持ち役立つこと、ややイイ話

卒論指導で見えた生成AIとの付き合い方 ― その正体と活用をめぐる3つの話

»

ようやく、今年度の卒業論文・修士論文の発表会が無事に終了しました。指導にあたった教員としては、まずはホッと一息といったところです。

しかし、今年度は例年になく「論文指導」の負荷が重い一年でした。その要因は、間違いなく「生成AI」です。
AIの精度が飛躍的に向上したことで、ほとんどの学生が執筆にAIを利用するようになりました。私自身も、アイデア出しや推敲にAIは欠かせない存在だと感じており、活用自体はポジティブに捉えています。

一方で、世のコメンテーターが言う「AIが書いたものか見分けがつかない」という言葉には、専門家の立場から強く異議を唱えたいと思います。その専門分野において、AI特有の「もっともらしい嘘(ハルシネーション)」を見抜けないというのは、指導側としてはかなり心配なレベルだと言わざるを得ません。

今回は、このハルシネーションの正体と、これからのAIとの付き合い方について、私が注目した3つのお話をご紹介します。

1. なぜAIは"もっともらしい嘘"をつくのか

まず紹介したいのは、AIエンジニアであり、先日の衆院選でも注目を集めた安野貴博さんのYouTube動画です。

[安野貴博の自由研究:【OpenAI論文を読む】なぜAIは"もっともらしい嘘"をつくのか? ハルシネーションの正体をゆる解説]

この動画では、OpenAI社の最新論文をもとに、ハルシネーションが発生する「構造的な原因」が分かりやすく解説されています。

原因① 事前学習の限界:統計的なパターンを学ぶAIにとって、データが少ない「あまり有名でない人の誕生日」などは関連性が見い出せず、嘘をつきやすくなります。
原因② 事後学習(RLHF)評価法の落とし穴:多くのAIモデルは「正解ならプラス1点」という評価で鍛えられます。すると、AIは「分からない」と答えて0点になるより、「もしかしたら当たるかも」と適当に答えて1点を取りにいくという、まるで試験中の受験生のような行動をとるのです。

面白いのは、最新の思考型モデル(gpt-5-thinking-miniなど)では、「分からない」と答えることを高く評価することで、ハルシネーション率を劇的に下げている点です。AIに「回答を棄権する勇気」を持たせることが、信頼性向上の鍵だということです。

また、ハルシネーションは本当に悪いのか、という論点についても紹介されています。
小説の設定づくり、ブレインストーミング、未知の問題の仮説生成、想像的な場面では、「それっぽく推論できる力」が強みになります。
これは、次のお話にも関連します。

2. なぜ生成AIは効率化につながらないのか

次に、長岡技術科学大学の雲居玄道先生の講演内容を紹介します。

[長岡技術科学大学HP:生成AI、結局どう使えばいいの?]

現場でよく聞く「AIに書かせたら間違いだらけで、自分で書いた方が早かった」という嘆き。雲居先生は、その原因を「生成AIに対する期待と現実のギャップ」にあると指摘します。

従来のコンピュータシステムは、正確性、再現性を強みとします。ただし、それは、創造性、柔軟性、自然言語処理(曖昧さ)が苦手という限界でもありました。
その限界を超えたのが生成AIなのですが、その生成AIに対しても、コンピュータシステムなのだからと、正確性、再現性を求めてしまっていないか?というものです。

生成AIの精度が上がったとはいえ、根本原理は「確率」です。どんなに進化してもAIは確率で言葉を選んでいます。創造的タスクではそれが「多様性」というメリットになりますが、事実に基づくタスクでは「間違い」というデメリットになります。

雲居先生が強調していたのは、「生成AIで楽をするには専門性が必要」という点です。
雲居先生は、AIを使いこなすには以下の3点が必要だと説きます。
① 明確な仕様が出せること(正解を知っている)
② 瞬時に検証できること(一目で正誤を判断できる)
③ 効率的に修正できること(間違いの原因を特定できる)

つまり、基礎知識のない学生がAIに「丸投げ」しても、結局は修正に膨大な時間を取られるか、嘘をそのまま載せてしまうかのどちらかになってしまうのです。

3. 学生たちはAIを「信じてしまっている」という現実

最後は、NHK『おはよう日本』で特集されていた、若者とAIの距離感についてです。

今の若者にとって、AIは単なるツールを超え、「否定せずに24時間いつでも話を聞いてくれる、家族や友人以上に信頼できる存在」になりつつあります。

今年の卒論指導中、AIの書いた使えない記述を私がバッサリ削ると、予想以上にショックを受ける学生の姿が印象的でした。当初は「自分で書いたわけでもないのに、なぜ?」と不思議でしたが、彼らはAIを「信じている」のだと気づかされました。

教員のもとにはなかなか届かない質問も、AIには遠慮なく投げかける。卒論指導の終盤、昼夜問わず、24時間、質問や確認依頼が飛んでくる状況を経験すると、我々人間が「AI以上の信頼」を学生から得るのは、もはや並大抵のことではないと痛感させられます。

3つの話から見えたもの

では、どう生成AIと付き合えば良いのか。

ハルシネーションは、裏を返せばAIの「創造性」の源泉でもあります。それを排除しすぎれば、AIの面白みは消えてしまうでしょう。

大切なのは、AIの「ゆらぎ」を理解した上で、最終的な検証責任は人間が持つという「専門性」を磨き続けることです。学生たちには、AIという最高の「相談相手」を持ちつつも、その言葉を鵜呑みにしない「強い批判的思考」を持ってほしいと思います。

Gemini_Generated_Image_ygoe7bygoe7bygoe.png

※このブログ記事のためにGoogle Gemini(Nano Banana)が描いてくれたイラスト。「ハルシーラン」って何だ?エド・シーランを聴きながら記事を書いていたからでしょうか。

Comment(0)