カフカ的な未来から人類を救うにはAIの民主化が不可欠

メインビジュアル : カフカ的な未来から人類を救うにはAIの民主化が不可欠

想像してみてください。巨大なシステムが人の将来に大きな影響を及ぼす決定――生死をも左右する決定――を下す状況を。しかも、そのシステムが複雑で不透明だったとしたらどうでしょうか。人々を勝者と敗者に振り分けるのに、その拠り所となる基準が明らかにされることがなかったとしたら……。そして、自分についてどのようなデータを収集したか、あるいは自分のデータがどのようなデータと比較されているのかが分からなかったとしたら。さらには、システムの下した決定に対してだれも責任を取ろうとせず、自分は歯車のような役割を果たしただけだと、誰もが主張するとしたら……

関連記事:「女性は今すぐ行動せよ。さもなくば、男性によって設計されたロボットに自分たちの人生が支配される未来が待っている(イバナ・バートレッティ著)

著名な小説家のフランツ・カフカは1915年に執筆した小説『審判』の中で、このような暗い未来のビジョンを提示していました。同書は、冷淡な官僚的機構との対峙を描いた風刺物語です。主人公のヨーゼフ・Kは、なぜ自分が逮捕されたのか、何が自分に不利な証拠となっているのかを知りません。だれもその判決に責任を取ろうとせず、どのような手続きが取られているのかも十分に説明しようとしないのです。ついにヨーゼフ・Kは挫折し、これも自身の運命と諦めて、物語は救いのない結末を迎えます。

それから100年。これと同様の例として、AIとデータ駆動型のコンピュータシステムがしばしば引き合いに出され、その重要性が増す一方で、それが下す判断は不透明かつ無責任ではないかとの批判も出てきています。しかし、これは偶然の一致ではありません。ヨーゼフ・Kが受けた審判と、AIがもたらす倫理上・政治上の問題には直接的なつながりがあるからです。

現在、しきりに宣伝されているAIテクノロジーは、ここ数年の間に完成したわけではありません。歴史学者のジョニー・ペン氏も最近指摘したように、AIが持つ長い歴史は国家や企業の権力と深く密接に関連しています。これまでのAIシステムの開発は、政府機関、軍部、大企業といった資金提供者の利益を高めることが主な目的だったのです。

なにより重要なのは、それらのAIシステムによって自動化された意思決定モデルが、このような官僚的組織から直接受け継がれたものだったという点でしょう。マシンインテリジェンスの偉大な先駆者であるアラン・チューリングジョン・フォン・ノイマンは、どちらも第二次世界大戦中という厳しい状況下で独自のプロトタイプを開発しました。そのフォン・ノイマンの監督の下、1946年に発表された世界初の汎用コンピューター「エニアック」が行った最初の仕事は、水素爆弾に関する計算を実行することだったわけです。

つまり「AI」の「知能」とは、人間個人の知能、つまり作曲家や介護福祉士や医師の知能ではなく、官僚主義の組織的な知能であり、人々の人生にかかわる大量のデータを処理して分類・整理し、それに関する決定を下して適当な場所に保存するというマシンの知能なのです。現在のAIが抱える問題は、このような組織の「知能」の産物であるという点で、カフカの小説が提示する事態と似ています。ヨーゼフ・Kなら、現代の「コンピューターが物事の是非を決める」文化についても、たちまち理解できたことでしょう。

もちろん、AIや関連テクノロジーを人間のために活用する方法はいくらでもあります。たとえば、より良い医療をより多くの人に提供することやデジタルパーソナルアシスタント、あるいは個人に合わせたオンライン学習の提供その他の多くのサービスを利用できるようにすることも可能なのです。

しかし同時に、不公正さが残るリスクも伴います。なぜなら、それらは最も輝かしい先端テクノロジーである反面、その生みの親が抱えている、物事を単純化して捉えようとする組織的思考と制度上の偏りという、昔ながらの不均衡を体現したものでもあるからです。その点に手を加えて改善できなければ、カフカの小説のようなシステムは従来からの差別的要素が引き継がれるばかりか、悪化させることになるでしょう。その典型例が、アマゾンでの利用が打ち切られた人材採用アルゴリズムです。このアルゴリズムは、同社の採用傾向を示す過去の記録から学習したパターンに基づいて、履歴書に応募者が女性であることを示す単語が使われていれば評価を落とすというものでした。

したがって、AIを最大限に活用するうえでは、AIの開発と展開に多様な意見を取り入れることが重要になるといえます。つまり、そのAIを生み出した権力者のシステムから除外された女性などの人々や、多くの発展途上国、あるいは先進国の多数派のコミュニティに属する権力者が植民地化した地域の人々、さらには権力者によって犠牲にされた貧困層や障がい者などの主張も含める必要があるのです。

そのために解決すべき課題の数は計り知れません。12月に発表された世界経済フォーラムのレポートでは、世界のAI専門家のうち女性の割合はわずか22%、英国ではさらに少ない20%にとどまるという結果が示されました。有色人種をめぐる状況も同様に深刻です。先月には、AIに関する最高峰の学会の1つであるニューリップスに参加するためにカナダを訪れようとした100人以上の研究者が、ビザを取得できないという問題が起きたばかりです。多くがアフリカからの訪問者だったことから、この問題はアフリカ系の人々のAI分野におけるチャンス拡大を目指す「ブラック・インAI」の会合にとりわけ大きな衝撃を与えました。

関連記事:「AIを問う:人工知能にオフスイッチは必要か - サイエンス・ウィークリー・ポッドキャスト

一方で、明るいニュースもあります。AIナウ研究所アルゴリズミック・ジャスティス・リーグといった米国を拠点とする研究・活動家グループのおかげで、社会から取り残された人々がAI研究に参加することの重要性が認められるようになっていることもその1つです。同様に、英国で最近設立されたエイダ・ラブレース研究所は、AI社会の未来を形成する中で「多様な意見を集める」ことを3大目標中に含めています。そして、現実にそうした目標を達成するうえでも有利な立場にあるのです。その理由としては、同研究所が政府や特定の企業に属さない独立機関であり、様々な意見に耳を傾けえるうえでのコミュニティとのつながりを確保していることや、設立者であるナフィールド財団が有する、科学に倫理をもたらしてきた実績を足掛かりにできることが挙げられます。

チェコのプラハに住むドイツ語話者のユダヤ人であったカフカのように、過去に権力者のシステムに失望させられたことのある人々は、それゆえに、その不透明性や恣意性、無責任さに敏感になるものです。したがって、そのような人々の意見を取り入れることで、効率だけでなく倫理性も高めた未来のAIが実現するといえるでしょう。

  • スティーブン・ケイブは、ケンブリッジ大学リバーヒューム未来知能センターの事務局長です。

 

この記事はThe Guardian向けにスティーブン・ケイブが執筆し、NewsCredパブリッシャーネットワークを通じてライセンスされたものです。ライセンスに関するお問い合わせはlegal@newscred.comにお願い致します。