AIによる判断にバイアスがかかることを防ぐためには?

「汝自身を知れ。」

この格言は、哲学者にして歴史学者であり、ベストセラー作家でもあるユヴァル・ノア・ハラリ氏が先日、スタンフォード大学の壇上で行われた対談で紹介したものです。多作な作家であり世論の扇動者でもあるハラリ氏は、人間の一挙一動を追跡することで情報を集約・学習し、ともすれば我々自身も気付かない人間に関する洞察を収集するAIアプリケーションに対して、長年反対の声を上げ続けてきました。

同氏は「自分自身をもっとよく知ることです」と先の格言を現代的な口語で言い直し、「皆さんは機械との競争にさらされているのですから」と続けます。

このイベントは、人類に利益をもたらすテクノロジーの開発を目指すスタンフォード大学のヒューマンセンタードAIインスティチュートもスポンサーとなっており、対談にはこの学際的研究機関の共同ディレクターも務めるAI研究の第一人者でコンピューターサイエンス教授の、フェイ・フェイ・リー氏もスピーカーとして登壇しました。両氏は、AIを待ち受ける未来とはどのようなものか、そして人間の利益を「失わせるのではなくサポートする」ためにAIをいかに利用できるかという点を中心に議論を交わしたのですが、当然ながら今後の最善の道や、AIがもたらし得る損害の範囲や重大性について、必ずしも双方の意見が一致をみたわけではありませんでした。

たとえば、リー氏が「自己の分析プロセスと意思決定を説明できるAIシステムを開発する案」を示すと、ハラリ氏は「AIのテクノロジーは複雑すぎて説明できない域にまできており、その複雑さには人間の自律性と権限を徐々に蝕んでいく可能性がある」と反論するといった具合です。

対談は概ね有意義で生産的なものでしたが、合間にちょっとしたジャブの応酬も挟まれました。

たとえば、リー氏のこの言葉です。「私は、哲学者の皆さんがとてもうらやましい。というのも、異議や危機を唱えても、自分たちがその答えを出す必要がないわけですから…。」これには、当の哲学者のハラリ氏でさえ失笑したほどです。

実際には、ハラリ氏自身がいくつかの解決策を提示しようとしていた矢先のタイミングだったのですが、おそらく彼の苦笑は、自らの極めてシンプルなアドバイス、つまり「汝自身を知れ」ということですら、現実に行うのはそれほど簡単なものではないという事実を自覚してのものだったのではないでしょうか。

人間がAIシステム以上に深く自分自身を知ることの難しさは、哲学者である彼自身が紹介した逸話に最もよく表れています。ハラリ氏が聴衆に語った話によると、彼は21歳になるまで自分が同性愛者であることに気付いていなかったというのです。「私が片時も離れず自分自身と一緒にいたにもかかわらずです」と同氏は哲学的な言い回しで説明し、「しかし、AIシステムなら自分よりも早く自身の性的アイデンティティを判断できただろう」と述べました。

さらに同氏は、「自分自身について非常に重要な情報をアルゴリズムから知り得る世界に住むということは、いったい何を意味するのでしょうか。そして、もしそのアルゴリズムが、あなたの情報を、あなた自身にではなく他者、たとえば広告主や独裁政権に開示するとしたらどうしますか?」と聴衆に問いかけます。

このように、AIが私たちのことを「知りすぎる」ことによるリスクは現実のものであり、ハラリ氏のような外部の批判者だけでなく、エンジニアや教育者、リー氏のような業界の内部関係者たちも次第に注目するようになってきました。しかしその反面、AIシステムが私たちについて、あるいは人間の統計的データ全般について「知らなすぎる」場合のリスクはどうでしょうか?

筆者は先日、テクノロジー企業のヴイエムウェア社がパロアルト社の自社会場で開催した女性科学者・技術者がテーマのイベント、「ウィメン・トランスフォーミング・テクノロジー」にも参加しました。その席上で、マサチューセッツ工科大学(MIT)メディアラボの研究者であるジョイ・バオラムウィーニ氏採り上げたのは、AIアプリケーションに含まれるバイアスの問題です。同氏は、これまで「顔認識システムが女性の顔、さらには有色人種の顔を正確に識別できない」という問題を中心に研究を行ってきました。そのようなシステムが、「有色人種」で、かつ「女性」である人の顔を認識することを最も苦手としていても、驚くにはあたらないでしょう。

「女性と有色人種は、世界で多数を占める『マジョリティ』であるにも関わらず、AIで認識させるためのサンプリングが十分に行われていないのです」と、同氏は聴衆に語りました。

同様に、多くの顔認識アプリケーションに含まれているバイアスの元凶は、それらのAIシステムのトレーニングを行うために使用されるデータセットにあるといいます。バオラムウィーニ氏によると、それらの自己学習システムに読み込まれる画像の大部分が、白人男性の被験者のものだからです。それゆえ、これらのシステムの精度を評価するために使われるベンチマークもまた、白人男性の顔に最適化されたものとなります。その影響は甚大で、場合によっては危険ですらあるわけです。たとえば、肌の色が薄い人に比べて肌の色の濃い人を検知する精度が劣っている自動運転車を想像してみてください。

このようなリスクこそが、バオラムウィーニ氏を「アルゴリズミック・ジャスティス・リーグ」の発足へと駆り立てました。同団体は、AIシステムのバイアスを明らかにして軽減することを目的としています。MIT研究者である同氏が「コレクティブ」、すなわち共同体と呼ぶこの組織は、プログラマー、活動家、規制当局者のようなAIや人権問題の関係者を1つに束ね、こうしたテクノロジー的・社会的な重要問題について力を合わせて認識を高めることを目指すものです。

そして、バオラムウィーニ氏の研究は、すでにいくつかの問題の改善につながる成果をあげています。同氏は講演の中で、最近は、IBMフェイスブックをはじめとする企業の顔認識技術の改良によって、白人でも男性でもない被験者の検知精度が向上していることに言及しました。しかし、それでも問題が一掃されたわけではありません。同氏は、それらのシステムのさらなる改善を明確に求めながら、「すべての」人々を十分に「知っている」顔認識技術の利用について、とても懸念しているとも話しています。

「たとえば、正確な顔認識を実現し、その技術をドローンに搭載することは可能ですが、それが実現した世界は、皆さんが住みたいと思うところではなくなるかもしれません」と、同氏はトーク後のインタビューで筆者に述べました。

バオラムウィーニ氏は、また別の例として法執行目的のAIシステムの問題点を指摘しています。もしバイアスの生じているシステムが法執行に利用されるとしたら、それを正当化できないことは当然ですが、たとえバイアスが修正された場合でも、「大量監視が常時行われているような環境で生きたいと思うだろうか?」という疑問が新たにわいてくるに違いないというのです。

この疑問にはきっと、バオラムウィーニ氏自身もハラリ氏もリー氏も、皆、口をそろえて「ノー」と答えることでしょう。AIは、確かに我々の生活や社会をより良いものにできる可能性を秘めていますが、そのためには、実際の人々に受け入れられる形で普及させていくことが何より重要なのです。

 

この記事はFORTUNE向けにミカル・レブ-ラムが執筆し、NewsCredパブリッシャーネットワークを通じてライセンスされたものです。ライセンスに関するお問い合わせはlegal@newscred.comにお願い致します。