決して最先端ではない、けれど日常生活で人びとの役に立っているIT技術を探していきます。

【書評】自動化がもたらすのは見えない檻か――"The Glass Cage: Automation and Us"

»

クラウド化する世界』でお馴染みの(最近では『ネット・バカ』でお馴染みのと言うべきか)ニコラス・カー御大、待望の新刊が発表されました。今回のタイトルは"The Glass Cage: Automation and Us"。サブタイトルから分かるように、自動化(オートメーション)をテーマにした一冊です。

The Glass Cage: Automation and Us The Glass Cage: Automation and Us
Nicholas Carr

W W Norton & Co Inc 2014-09-29
売り上げランキング : 11634

Amazonで詳しく見る
by G-Tools

前作『ネット・バカ』ではネットが生活に浸透することの負の側面を取り上げたカーですが、今回もそれと同じような論調で、オートメーションがもたらすリスクについて考察していきます。

 本書はオートメーション、すなわち以前は私たちが自分の手でしていたことを、コンピューターやソフトウェアに行わせるという行為について考えている。ただ自動化の技術や経済性、ロボットやサイボーグ、ガジェットの未来について語っているわけではない(話の中には登場してくるが)。本書が主眼を置いているのは、自動化が人類に何を引き起こすのかという点だ。いま人類は自動化の波に飲まれようとしているが、そんな私たちの先頭に立ち、変化に直面してきたのが航空機のパイロットである。私たちはこれまで以上に、様々な作業をコンピューターに肩代わりしてもらおうとしている。仕事かプライベートかを問わず、日常生活におけるガイド役を期待しているのだ。いま何か片付けなければいけない作業があるとしたら、PCのモニターやラップトップの前に座るか、スマートフォンを取り出すことだろう。あるいは頭や腕にネット接続端末を装着するかもしれない。そしてアプリを起動して、スクリーンを凝視し、デジタル音声のアドバイスに耳を傾ける。アルゴリズムの叡智にお任せ、というわけだ。

引用文でもパイロットの話が出ていますが、オートメーションがもたらすリスクの例として最初に取り上げられるのが、航空機や自動車などの乗り物の自動化です。カーは自動操縦というテクノロジーによって多くのメリットがもたらされた/もたらされるであろうことを認めつつ、それによって新たな問題が生まれることを指摘します。たとえばカーナビを頼り切ってしまった結果、明らかに誤った道を走っているにもかかわらず、ナビの言われるままに危険な道を走ってしまった……という経験、自動車を運転される方であれば一度は経験があるのではないでしょうか。もしくは何らかの理由でナビが使えなくなった際に、昔のように紙の地図から瞬時に経路を割り出すということができなくて困った、という経験をされた方もいるかもしれません。そうしたオートメーションを利用した場合に発生する認知上の落とし穴や、あるいはスキルの低下といったものを、具体的な事例や研究結果をもとに描いていきます。

 過去数十年の間に航空業界が経験した変化、すなわち手動による操縦からデジタル化された航空システムへの移行、ソフトウェアとスクリーンの普及、手作業だけでなく思考作業の自動化、パイロットに残された役割の変化は、これから社会全体で生まれるであろう変化のロードマップとなるだろう。ドン・ハリスはグラスコックピットを、「あらゆる場所でコンピューターが機能している社会」のプロトタイプとして捉えることができるだろうと指摘している。またパイロットたちの経験は、自動システムのデザインと、そのシステムを使用する人々の心と体との間に、わずかだが強力な関係性が存在することを示している。スキルや認知力、反応速度の低下が生じることを示す証拠が増えつつあり、私たち全員が立ち止まって考えてみるべき段階に来ているのである。私たちがグラスコックピットの中で生活を送るようになれば、パイロットたちが既に気づいているのと同じ運命をたどることになるだろう――グラスコックピットが、グラスケージ(ガラスの檻)にもなり得るという運命を。

もちろんカーも、オートメーションがもたらすメリットを否定しているわけではありません。ましてやラッダイト運動のような肉体労働の回帰を訴えているわけでもないのでご安心を。社会や技術が進化するものであることを認めた上で、この見えない「ガラスの檻」の存在を意識して、そこから生まれる新たなリスクに対応すべきであるという議論が展開されていきます。彼はこうした問題点を、きちんと根拠やロジックを示して解説してくれるので、「ゲーム脳」的な批判に辟易している方でも読んで得るところは大きいと思います。

ただ個人的には、新たなツールの登場によって人間の認知が変化し、過去に有効だったスキルが失われるというのは、最近のオートメーションに限った話ではないと思います。たとえば極端な喩え話をすれば、自動車が普及し始めた時代に、「社会から乗馬スキルが失われたらどうするのだ、自動車などガソリンが切れたら動かなくなるのだぞ?」と不安がるのと一緒でしょう。新たなテクノロジーが登場した時、それに接する人々に認知上の不安定感が生じるというのはマーシャル・マクルーハンも指摘したところであり、彼はそれが過渡的なものに過ぎないと主張しています。それは楽観的過ぎる考え方かもしれませんが、たとえば最近オートマ車のクリープ現象が原因となった事故のニュースを聞かなくなったように、新しいテクノロジーの何に気をつけ、どう使いこなせばリスクを回避できるのか、次第に人間の側での経験が蓄積されてゆくことも期待できるのではないでしょうか(もちろん過渡期に生じる混乱を最小限にする努力は欠かせませんが)。

しかし1点だけ、カーの主張に大きく同意したのが、グラスケージは本質的に「他者の意図」が介在するものであるという点です。これはかつて『閉じこもるインターネット』で指摘されたフィルターバブルと似た議論ですが、オートメーションは何らかの価値判断に基づいて行われるものなだけに、その制作者の意図によって結果を左右されることになります。たとえばフェイスブックでは、ユーザーの趣味嗜好に近いコンテンツを表示しやすくさせるという自動化ロジックが存在しているために、知らず知らずのうちに自分の思想が強化されるリスクが存在しているわけですね。

 ソフトウェアを開発する人々がどのような経済的・政治的・倫理的モチベーションを持っているのかを理解しておかなければ、彼らに操作される危険を冒すことになるだろう。ラトゥールが指摘したように、私たちは知らず知らずのうちに、自分の意識を他人の意識に置き換えてしまうことになる。そしてそのリスクは、技術に依存すればするほど高くなるのだ。

さらにカーは、ウェブサービスという形で提供されるソフトウェアは、テクノロジーの中でも特にこうした「どのように機能しているか分からないまま、それが意図するものに依存してしまう」という状態が起きやすいと指摘します。ちょうど最近問題になった、フェイスブックの感情操作実験を彷彿とさせる話ではないでしょうか。いずれにせよ私たちが無批判に自動化を受け入れたとしたら、それこそ「見えない檻」によって日々の行動が規定されることになり、それは社会で要求されるスキルの変化や喪失以上に問題となるはずです。

ただこの問題は、何も自動化に限った話ではなく、たとえば「まとめサイト」のようなキュレーションメディアを無批判に消費することでも発生し得るものです。人間の脳は、判断というエネルギーが要求される行為をなるべく減らそうとするようにできているそうですから、結局はピーター・ティールが訴えるように「自分の頭で考えること」しかないという話になるのかもしれませんが。ともあれ他の識者による「自動化は何をもたらすか?」論も数多く登場してきていますし、本書も再び議論の出発点となることは間違いないでしょうから、読んでおいて損はない一冊だと思います。

Comment(0)

コメント

コメントを投稿する