オルタナティブ・ブログ > 直子のより道 >

アジア地域ネタ(主に中国・台湾)や、広報、IT周りのことを、「のんびり寄り道」ペースで。

AIと共生する第三の動きを作る

»

2025年9月29日&30日に開催された「WIRED Futures. CONFERENCE 2025」。AIと量子コンピューターが融合した未来を体感するカンファレンスとして、二日間、様々なセッションが行われました。一日目は「QUANTUM(量子)」、二日目は「AI」がテーマとなっており、私は二日目に幾つかのセッションを観覧したので、気になった内容をご紹介します。

AIを取り巻く「二極化」

まず、WIREDの松島倫明編集長がオープニングに登場。AIについて、その発達は誰の目にも明らかだが、現在は「二極化」がみられると説明。アメリカでは、ZoomerとDoomerの二極化が見られ、Zoomerは、「人工知能によって社会課題が解決され、繁栄する」と考える人々。加速主義とも言われている。Doomerは、「人工知能に支配され、人類が破滅に向かっている」と考える人々。もう一つの二極化は、AIが「最適化を促進し、生産性をあげていく」と考える層と、AIが「非人間的な知性として新しいエコシステムを作り上げていく」と考える層の違い。しかし、今回のカンファレンスにおいては、AIの専門家とアーティストが議論し、「二極化にとらわれず、新しい第三の動きを作っていく」ことを目指したいと締めくくりました。


AIに魂は宿るのか?

Keynoteは、Google バイスプレジデント兼フェロー/ Technology & Society部門CTOのBlaise Agüera y Arcas(ブレイス・アグエラ・イ・アルカス)氏の講演。MIT Pressで発売されたばかりの著書「What is intelligence? Lessons from AI about Evolution, Computing and Minds」を紹介しながら、「AIに魂は宿るのか?」という観点を織り交ぜたセッションとなりました。

日本には、ロボティックスの伝統と、さらに長い伝統を持つ神道があり、魂や精神などの力を米国や西洋よりも広い意味で捉える傾向があると考えていると、ブレイスさんは説明します。自然界のさまざまな存在に魂が宿るという発想があり、さらには、テクノロジーやロボットAIにも宿り得るという考え方がある。この視点こそが、これからの時代、私たちに示唆を与えてくれると考えているとのことです。ブレイスさんが、そう思うに至る理由や、科学において魂が持つ意味について、西洋科学史や、機能主義や共生、チューリングテスト、哲学的ゾンビ、その他多様な例を挙げながら話しました。後半は、松島編集長とQ&A形式で、生命の相転移、AIや魂の進化などのトピックが語られ、AIと人間の共生について歴史的、哲学的、科学的な観点から考えるためのヒントが詰まった講演でした。

人間の執着がクオリティを維持

次の「エージェントAIが溶かす組織と個人の境界」と題したスロットでは、AIとの共生について、PwCコンサルティングの三山功氏とアーティストの藤倉麻子氏お二人の経験に基づいた、ビジネスとアートの側面からのディスカッションとなりました。「もしあなたが100人以上の知的生産性をもてるとしたら何を実現したいですか?」という問いに対し、三山氏は、すでに自身の部門で実験をしていると回答。夏休みの宿題として、自分の部門をAI化するようなプロトタイプを作った際に、最大で生産性が10000倍となったと紹介。一方、藤原氏は、「アートの場合誰が作ったかが重要になる。『個人』が重要となるので、単純に100倍にはならない」と回答しました。また、「人間性とアイデンティティの再定義」として、「AIの圧倒的高さの生産性を持ってワークを進めた場合に、人間側に残る価値とは?」と問われた際に、藤原氏が「AIは陳腐化が早い。シナリオをAIで作ろうとしても、人間らしいものしかでてこないし、絵的にもつまらなくなってしまう。強烈な人間のディレクションが必要。人間の執着がクオリティを維持していくのに役立つ」と答えたことが印象的でした。

子どもの「考える力」を削がないために

最後に、WIREDの人気動画シリーズ「Tech Support」の「AIサポート(特別版)」を、POSTSの梶谷健人氏がライブで行い、読者からのAIに関する様々な質問に答えていきました。

その中で、AIの進化の速度についてのお話がありました。AIは指数関数的に進化しており、AIエージェントの進化を見ると「AI版ムーアの法則」のようなものが観測されており、大体「7ヶ月毎にAIエージェントの能力は2倍になる」とのこと。ものによってはそれより早く進化している場合もあるので、ざっくりいうと「半年に2倍」と言えるとのこと。セッション後半に、「子どもの『考える力』を削がないためにはどんな工夫が必要でしょうか?」という質問があがりました。梶谷氏の回答は、「AIを答えの自販機にしない」ということ。AIは聞いたら答えをすぐに出してくれるので、それに触れさせ続けるリスクはある。対策としては簡単で、「設定」をすること。ChatGPTを例に挙げると、設定前の場合、「夏休みの自由研究テーマを教えてください」という問いに対し、「ペットボトルロケット」など、答えを羅列してくる。しかし、これに対して、カスタム指示を設定すると、同じ質問をした際に、「どんなことに興味があるのか」、「日常の中で不思議に思うことはある?」など、問いかけをしてくれる。このような設定を、親がすることが大事。いまのChatGPTは、パーソナライズ設定ができるので、そこに必要なプロンプト、例えば「結論や答えを直接教えないでください」など、複数のプロンプトを入れることが鍵になるようです。

イベントの公式ページで、アーカイブ動画を無料配信中のようなので、興味のある方はこちらをご覧ください。

Comment(0)