ChatGPTみたいなサービスがはらんでいる懸念とあなたは無縁ではないかもしれません
ITに強いビジネスライターの森川ミユキです。
今回は今話題の会話型AIについて、私なりの懸念を書いてみたいと思います。
今の技術のままではChatGPTブームは長くないかも
ChatGPTをはじめとする会話型AIの話題で持ちきりです。GoogleのBardがキャッチアップに必死だとか、BingにChatGPTがバンドルされたけど何かきつい答えを返してくるとか、中国版ChatGPTのChatYuanが正直過ぎて3日でサービス停止になったとか、話題には事欠きません。
私もBingのサービスにエントリーして行列待ちしている、このブームを面白がっている者の一人です。ですが、あまり夢は感じておりません。
というのは、私は月に3~4本ぐらいの割合で、ビジネスの最前線にいるデータサイエンティストやデータコンサルタント、あるいは企業のDMO(データマネジメントオフィス)の責任者や担当者に取材させていただいているのですが、まったくChatGPTの話題が出てこないんですね。
それで思うんですが、ビジネスの特に実務の世界では、今のところ価値を感じている人があまりいないのではないかと。ただこれは私の取材先が偏っている可能性もありますし、利用側が会話型AIを使うほど成長していない可能性もあります。提供側がかなりやっきになっているところを見ると、宝の山がこの先に眠っている可能性も大いにあります。
しかし仮に宝の山が眠っているとしても、たぶん今の技術のままでは、もう少しするとブームが冷めてしまうと私は考えているのです。
なぜでしょうか?
機械学習で思った通りのAIを作るのは大変
それは、既に問題になりつつありますが、フィルタリングが必要だということです。
会話型AIの技術は確かに機械学習の最前線ですが、所詮は機械学習です。どういうことかと言うと、機械学習というのは、学習データとパラメータ(特徴量)とアルゴリズムからモデル(AIの実体ぐらいに捉えてください)を作成します。AI作成者は、どういうモデルを作るかについてもちろんイメージがあるわけですが、どんなアウトプットが出るかはコントロールできません。何回も試行錯誤しながら調整し、思い描いていたものを作っていくのですが、100%のものはできません。
※ちなみに精度を上げるために定期的な再学習を行うのですが、実際には精度が下がることも多いです。精度を上げるのも大変ですが、精度の維持も大変なのです。
ChatGPTのアルゴリズムは、機械学習の中でも深層学習(ディープラーニング)と強化学習を組み合わせたものです。これらについて深く説明していくと長くなるので割愛しますが、やっぱり機械学習ですので、モデル作成者が思い描いている通りに作るのは困難です。
思い描いたものに近づけるためには、学習データとパラメータを調整するのですが、深層学習はパラメータを自動的に生成するので、会話型AIの調整は基本的に学習データの調整になります。要するに質の良い学習データを大量に用意することで、よい会話型AIができあがるわけです。
しかし大量の学習データを集めるのは比較的簡単ですが(お金で解決できる問題と思われます)、その質を担保することは難しいです。なぜならデータの品質を判断するのは人間なのですが、その人間が調べきれないぐらい大量のデータが必要とされるのです。「どうやってチェックするの?」という話です。
実はChatGPTの場合は、会話からのフィードバックでモデルの品質(学習データの品質ではありません)を上げています。これが強化学習と言われる部分で、それなりに品質の問題には対応はしています。ですが100%にはなりません。
問題が発生しそうなワードには予め答えが用意されているとの指摘
100%にはならないがゆえに起こっているのが、たとえば差別的な回答を返すといった問題です。SNSのデータを学習させているのかは知りませんが、もしそうなら差別的な回答が多くなるのもやむを得ません。差別的なコンテンツは学習データから外したいですし、その努力ももちろんしていますが、どうしても漏れが発生します。
それでおそらくChatGPT等がやっていると指摘されているのが、特定のワードに対するフィルタリングです。「女性」とか「LGBT」とか、変な回答をすると問題が発生しそうなワードが入ってきたら、予め用意していた答えを返すというものです。なぜそのような指摘があるかと言えば、その手のワードに対する回答がどうも不自然だと言うんですね。
特定ワードに対するフィルタリングは学習データを調整するよりかなり安上がりなのですが、問題は提供元の価値観や忖度によって回答が変わってくることです。そこまで言ってしまうとちょっと考えすぎかもしれませんが、提供元の価値観に「洗脳」されるおそれがあるということなのです。
おそらく運用でつまづくだろう
ここまでのところは既に指摘も多いので、少しずつ解決されていくかもしれません。
しかし以下の懸念はどうでしょうか?
それはいわゆるエゴサーチの問題です。会話型AIにまず聞きたいことの1つは自分自身のことではありませんか?
でも、ちょっと怖いですよね? なぜなら間違った情報が出てくるかもしれないからです。もし大間違いな情報が出てきたらどうしましょう?
間違った情報も嫌ですが、もっと嫌なのは秘密にしていたことが暴露されることです。
いやいや自分の情報なんかネットにないはずだから大丈夫と思うかもしれませんが、会話型AIが強化学習で精度を上げていることを思い出してください。あなたと会話することで、あなたの情報が増えていくのです。あなたが会話型AIとチャットするたびに、この人はそういうことに興味関心があるんだという情報が蓄積されていくわけです。怖くないですか?
エゴサーチして、間違った情報や秘密の情報が出てきたらどうしますか? 運営元に連絡しますよね。で、修正や削除を依頼することになります。
依頼された運営元はどう対応するでしょうか?
学習データを調整するのは大変だということは既にお話ししました。おそらく学習データを調整して再学習するなんてことはしてくれないでしょう。ではどうするか? あなたの名前が入ってきたときにフィルタをかけるほうが安上がりではありますが、そんなことをはたしてやってくれるでしょうか?
エゴサーチをする人は毎日何百万人もいそうですが、そのうち1%でも「自分の情報がおかしいから対応してくれ」と言ってきたら、もうパンクしますよね。同姓同名の人がいる場合には、対応はさらに難しくなります。
ということで、よほどの地位や権力を持つ人以外はたぶん対応してもらえないと思います。
すると社会問題なるのは必定です。
みんながやりたいエゴサーチ。今はまだユーザーが少ないからいいですが、みんなが使い出したら大変なことになるだろうなあ――というのは考えすぎでしょうか?
汎用AIが出てくる前の徒花(あだばな)か?
人間と見分けのつかないAIを汎用AI(AGI)とか強いAIと呼んでいます。汎用AIなら、人間と同じような感情を持つようになるかはわかりませんが、人間並みの忖度はしてくれるでしょう。そうなれば、今まで挙げてきた問題も解決するかもしれません。私が冒頭「今の技術のままでは」とは書いたのは、この汎用AIのことを念頭に置いています。
ただいつになったらできあがるのかはわかりません。できないかもしれません。
しかし私は汎用AIに関しては夢を感じています(ディストピアを連想する人も多いのですけど)。今の会話型AIは、汎用AIが出てくる前の徒花で終わるのではないかというのが私の予想です。
とはいうものの、ChatGPTに夢を感じている人に水を差すつもりはないのです。ただ持ち金を全部賭ける前に、こういう意見もあると参考にしてもらえれば幸いかと。
また会話型AI自体は楽しいものと思います。だから私も行列待ちしています。人工無脳もけっこう楽しかったですが、それよりもずっと楽しいんじゃないでしょうか。ホビーと割切って楽しむことを私はオススメしたいです。
ただ会話の内容にはくれぐれも気をつけてくださいね。あなたの性癖が突如暴露されるかもしれないですから(というか、既に私のいろんなことが暴露されているかもしれません。嫌だぁ~)。
最新のIT動向やITのビジネスへの応用について、経営者などビジネスパーソンに分かりやすく伝えることができるライターです。経営レベルでのIT活用について書ける数少ないライターの一人とお客様から評価されています。
最近注力しているテーマは、下記の通りです。
- データ活用(データドリブン、DX等)
※JDLA Deep Learning for GENERAL 2019#2取得しました - マーケティング全般(ブランディング含む)
特にデジタルマーケティングに関しては、新旧のマーケティング理論はもちろん、周辺ビジネス理論(デザイン思考、ジョブ理論等)やIT導入・運用方法論(プロトタイピング、アジャイル開発、DevOps等)を含めた深いコミュニケーションが可能です。
クラウド、データ活用基盤などITインフラ関連も得意としています。
▼お仕事のお問い合わせはこちらへ