オルタナティブ・ブログ > Mostly Harmless >

IT技術についてのトレンドや、ベンダーの戦略についての考察などを書いていきます。

現時点でのAIの限界を示す「モデル崩壊」問題

»

先週の日経XTRENDに、このような記事がありました。

生成AIが潜在的に抱える「モデル崩壊」問題が早くも顕在化し始めた

モデル崩壊とは、「生成AIツールが作成したコンテンツが他のAIモデルの訓練に使われることで、他のAIモデルが吐き出すアウトプットの質がひたすら低下していく」ことです。自家中毒のようなものでしょうか。AIが進化した結果、生体で起こる問題と似た問題が出てくるというのも興味深い話です。

body_nou_bad.pngこの話、新しい話では無く、すでに昨年の春には指摘されていました。

生成AIのデータがインターネットを汚染、基盤モデルを崩壊させる「再帰の呪い」

AI成果物が急増したことで「AI生成コンテンツをAIが学習するループ」が発生し「モデルの崩壊」が起きつつあると研究者が警告

これは考えてみれば納得できることで、現在の生成AIは膨大なデータを学習して「どこかの誰かが過去に書いたテキスト」をバラバラに分解して並べ直す、という作業を行っているだけです。自ら何か新しいものを生み出しているわけでは無いのですね。ですから、AIが作った成果物をAIが学習してもそれ以上のものが生まれるわけではなく、逆に成果物に含まれる間違いが蓄積して、品質はどんどん落ちていく、というわけです。

そして、だいぶ改善されたとはいえ、今の生成AIはまだまだとんでもない間違いを生成します。人間が見る分には「これは間違いだ」ということに気づけるチャンスもあるのですが、AIが生成したデータを他のAIが学習するということになると、間違いのチェックが入りません。生成AIの出力をそのまま学習するなどということは、現時点では危なくてしょうがないわけです。

しかし、ChatGPTが公開されてからまだ1年ちょっとしか経っていません。思ったより早く「そのとき」が来てしまったという印象です。それだけ生成AIの進化の速度が速いということなのでしょう。

以前のブログでも書いているとおり、生成AIの精度や品質を左右するのは学習データであり、今回もこの視点が強調される結果となりました。これを解決していくためには、著作権やプライバシー問題への対応と同じで、学習データを選別し品質を維持するということになるのだと思います。これにはまだまだ人間の関与が必要になるわけで、人間の知的活動を助けるためのAIを開発するために、開発サイドでは膨大な人的リソースを注ぎ込まなければならない、ということになりかねません。

そしてこの問題は、AIは今のところ自立しているのでは無く、人間の知的生産活動の成果の上に成り立っていることを示しています。AIは人間の成果物でしか学習できず、一部で心配されているような「AIが人間にとって代わる」ということは当面無いということなのでしょう。

 

【募集中】次期・ITソリューション塾・第45期(2024年2月14日〜)

ITsol.png次期・ITソリューション塾・第45期(2024年2月14日 開講)の参加者を募集しております

ITソリューション塾は、ITのトレンドを体系的に分かりやすくお伝えすることに留まらず、そんなITに関わるカルチャーが、いまどのように変わろうとしているのか、そして、ビジネスとの関係が、どう変わるのか、それにどう向きあえばいいのかを、考えるきっかけになるはずです。

また、何よりも大切だと考えているのでは、「本質」です。なぜ、このような変化が起きているのか、なぜ、このような取り組みが必要かの理由についても深く掘り下げます。それが理解できれば、実践は、自律的に進むでしょう。

  • IT企業にお勤めの皆様
  • ユーザー企業でIT活用やデジタル戦略に関わる皆様
  • デジタルを武器に事業の改革や新規開発に取り組もうとされている皆様

そんな皆さんには、きっとお役に立つはずです。

  • 日程 :初回2024年2月14日()~最終回4月24日() 毎週18:3020:30
  • 回数 :全10回+特別補講
  • 定員 :120
  • 会場 :オンライン(ライブと録画)
  • 料金 :¥90,000- (税込み¥99,000) 全期間の参加費と資料・教材を含む

詳細なスケジュールは、こちらです。

Comment(0)