オルタナティブ・ブログ > THE SHOW MUST GO ON >

通信業界特殊偵察部隊のモノゴトの見方、見え方、考え方

米国の著名SFメディアの新作投稿プログラムを「生成AIによる盗作投稿の山」が中止させてしまった件

»

どのような仕組みであっても使う人がそこにいて、その人の思想信条リテラシーあるいは正義感や倫理観が結果を支配することは普通にある話。更にいうと例えば今時点での生成AIの技術を取り巻く基本的な状況として「食わせたデータから得られるもの以上のものを生成させることはできない」というところは一歩も譲れないわけですが、ある意味手間を掛けずに何らかの文章なりプログラムのコードなり静止画や動画なりといったいろんなものを生成できるのは事実です。

ただあくまでもそれは使い手の(広義の)リテラシーが成果を大きく左右するのは手書きだろうが生成させようが変わらないと思っていますし、引用や出典を明記できない文献や論文は単に捏造されたゴミであり、あるいは盗作と呼ばれたりするわけです。

実際、何らかの報道記事から学術論文に至るまで実は生成AIによって書かれた捏造文であることが発覚したケースは既にいくつも報告されていたりしますが、今回たまたま目の前に流れてきたのは米国のSF雑誌が主催していた新作投稿プログラムに大量の生成AIで作り出されたと思われる投稿の山が押し寄せて、投稿プログラム自体が中止されてしまったという事案。

最低です。

米国のCLARKESWORLD MAGAZINEを襲う生成AIで作られた山のような投稿 という話

元々見かけたのは「2023年02月22日 10時57分 「AIが書いた盗作」の投稿が爆増しSF雑誌が新作募集を打ち切り」 というGigazineさんの記事です。AIが書いた「盗作」が押し寄せたのは米国のCLARKESWORLD MAGAZINE。編集長のNeil Clarkさんのブログを見ると「何やってくれてるんだよ」という怒りが溢れているんですが、下の方の追記に「Edit 2/20/2023 -- Submissions spiked this morning-over 50 before noon-so I've temporarily closed submissions. Here's a refreshed version of the above graph:」とあります。投稿プログラムをとりあえず停止するとのこと。結局のところ生成AIで書かれたものは一定のパターンのようなものがあるようでスクリーニングはできるのだけれど、突然急増したことを受けてとにかく一旦止めたということのようです。

技術の誤用あるいは悪用と言ってしまえばそれまでです。でも、あまりに簡単に出来るからこそ本来は使い手のリテラシーが試されるわけですが、そんなのお構いなしに何かしらの文(あるいは作品)を生成させて投稿し、あわよくば掲載させて原稿料を取るという行動が起きることに対して性善説を前提として対処することは最早単に強盗に丸腰で立ち向かうようなものかもしれません。

最低です。

そもそも食わせたもの以上のものを生み出せる推論や本質的な「思考」が出来るレベルではないわけで

結局のところ無から有を生むことはできないわけです。色んな人が今時点ではありえない技術の活用の夢を見たりしてるのをよく見ますが、無理です。勿論人間が人間として何かしらを書いたり描いたりするときでも、何かしらの行為に至るまでの間の勉強や修行の結果が出てくるわけで、完全に無から有を生み出すことはできません。それであっても、その作り出した人の意思と意図と知識と技能や技術がそこに出てくるわけで、だからこそ誰の作品というところが重要になるわけです。

それに対して、LMMなどで食った情報から与えられた命題に対する最適解と思われるものを引き出しから出してきて組み合わせて提示するのが生成AIであって、そこに考慮するべき誰かの権利とか先人へのリスペクトなどのパラメータを入れることは簡単ではないし、現時点では無理です。むしろ誰々風という形で使う方に行く流れもあって、もう盗作推奨みたいな見え方すらしてる気がしています。

ただし純粋に事務的あるいは技術的に普遍的な正解があるものに関しては適用しやすいと思います。プログラムのコード生成などはその例かもしれません。ただし全部AIに書かせていくと出来上がったものの評価ができる人がいなくなってしまってCASEツールでゴリゴリ生成したCOBOLのコードの悲劇と同じことが起きるよねと思ったりしてる私の性格の悪さは昔から変わっていないのですが、いずれにせよ生成AIは手元にある既に食ったデータソースからしか何かを生成できないのは変わらないわけです。

当たり前です。

人間の行為とAIの作業の違い

冒頭で取り上げたSF雑誌は人間が楽しむために読むものを掲載する媒体です。事務的に何かを伝える伝言板ではないわけです。そもそも事務的に伝えることがある程度可能だと言われている「報道機関」ですら、記者をFireしてAIに記事を生成させたら色々問題が起きて、でもそれを手で修正する或いは手で最初から書ける記者というスペシャリストを自分で切ってしまっているので大変なことになりつつある本末転倒な報道媒体というのが既に海外では出てきているという話も聞いたりします。

ただしそれを突き詰めるとそもそも編集という機能をどう考えてるんだよという媒体そのものの根幹に関わる話に踏み込んでしまうし、私自身は別に何らかの媒体側の人間ではないということで話の収集がつかなくなるので此処では深入りはしません。

けれど、とりあえず2000歩くらい譲れば例えば報道機関の役割のある部分は生成AIのような機能でカバー出来るかもしれませんが、人が人として誰かに読ませたいもの聞かせたいもの伝えたいものを最初から生成AIで作り出すという発想がよく理解できないんです。
その最たるものがSF媒体への生成AIで書かせた文章の投稿。
最早そこに誰かに読ませたい何かという発想自体が存在していないとしか思えないんです。

最低だと思っています。

AIが書き、AIが読み、AIがそれを元になにかを再生産するディストピア?

LLMの最初の段階では基本的に機械が生成した何らかのドキュメントが読み込まれることは無いという前提を建てることができます。ただし、一度何かが何かをもとに生成した情報が流通しはじめたら、その先には玉石混交の世界しか無くなるわけで、これが今まさに起きている状況だと思います。

誰が書いたのか、誰が生成したのかわからないソース。最適化とかそういうレベルではなく信頼性の問題ですね。

ただし勿論人間が作り出すものについてもすべてがキチンと裏が取れてるとか、査読を経たものであるとかそういうことはありえず、ただしい情報から単なる流言飛語や罵詈雑言に至るまで色んな情報が乱れ飛んでいるのは変わらないのですが、「話の裏を取れ」「ソースにあたれ」という基本動作ができないのが生成された何かです。ここが最大の問題。極端な話、たとえ嘘でも良いんです。嘘の裏が取れたら嘘だと判断できますから。でもそれができない。全体の辻褄が合わなくておかしいと判断される文章や論文を判断するのは人間の仕事ですが、そのおかしい状態のものであってもLLMのソースとして弾くのはモデルが巨大化すればするほど難しくなるのは誰でも分かる話だと思います。

そして悪意とか倫理観とか正確性とかの概念自体が存在しない中でAIが何かを書き、AIが何かを読みこみ、AIが次の何かを作り出すというディストピアが見えてきちゃいます。

なんか嫌です。

なんとかならないモノかとは思いつつも、自分自身あまりにも微力過ぎて何もできないんですけれどね。

Comment(0)