本格的なAI活用に立ちはだかる壁とは?【NewsPicksプロピッカーと語る“AI”】

メインビジュアル : 本格的なAI活用に立ちはだかる壁とは?【NewsPicksプロピッカーと語る“AI”】

第4次産業革命が進み、次第にAI(人工知能)の本格活用も始まっています。ビジネスや社会において、今後AIがより重要な意思決定に関わるようになった時、私たちはAIの判断を信頼できるのでしょうか。富士通はHuman Centricの考えのもとAIに関する倫理規定「AIコミットメント」を発表し、AIの倫理の重要性に向き合っています。AIの現状とブラックボックス問題や説明可能性について、ジャーナリストの松村太郎氏と富士通の風越直紀に話を聞きます。
(聞き手:フリーアナウンサー 森 遙香)

(写真左から)
ジャーナリスト News Picks プロピッカー 松村 太郎 氏
富士通株式会社 デジタルビジネス推進本部 AIビジネス統括部 プロモーション推進部 マネージャー 風越 直紀

AIに紐づいたアプリ+4G+スマホで米国は劇的に変わった

-- AI(人工知能)の活用は、具体的にどのような分野で進んでいるのでしょうか?

風越 人がいなくても目的地まで行ける自動運転の車や、医療画像から疾患を見つけ出したり、言葉の壁を超えて他国の人とコミュニケーションが取れる音声認識や翻訳といったところで活用が始まっていますね。

(参照)
働き方を変える「AI翻訳」で言葉の壁をなくし、生産性向上や能力発揮を促進
これからのCT画像はAIで診断支援!類似症例の正解率は85%、診断時間は6分の1

松村 携帯電話やスマートフォンで使われているサービスなどでは、AIが裏で処理をして、結果の最適化やいろいろな情報をより速く提供できるようになったり、複数の情報を合わせて新しい情報を作ったりするところで活用が進んでいます。

-- 松村さんはシリコンバレーにお住まいだったそうですが、アメリカでのAI活用の事例を教えていただけますか?

松村 私が渡米した2011年頃の天気予報は、日本の何十年前のインフラなのだろうというレベルでした。ところが2012年以降、スマートフォンという形でモバイルインターネットが普及してきて、アプリでAIに紐づいた機能やサービスが身近にどんどん手に入れられるようになりました。日本と同じような精度で「雨雲が近づいてきた」というアラームが鳴るようになったり、今まで日本が築き上げてきた素晴らしいインフラに、AIを前提にしてヒョイと追いつくような体験をしてきました。社会インフラや人々の生活が本当に劇的に変わったのを目の当たりにしました。

AIは発展途上、アトムやドラえもんの世界はまだ未来の話

-- 現状のAIはどの段階にきているのですか?

風越 AIというと『鉄腕アトム』や『ドラえもん』のように何でもできるものをイメージされる方もいらっしゃると思うのですが、それはまだ少し先です。2045年くらいにそういう時代が来るのではと言う方もいますが、現時点では何かに特化したもの、何かの判断に使うものです。ただ個別の分野では、それぞれ非常に進化が進んでいます。

-- 海外での開発の動きはいかがですか?

松村 日本では『鉄腕アトム』や『ドラえもん』のようにAIやロボットがポジティブに描かれているけれど、アメリカではパニック映画の敵として描かれることが多いです。テクノロジーに警戒心を持ちながら、それでも自分たちの生活がすごく変わるのでどんどん取り入れる流れに乗っている、という両方の部分を併せ持っているのが現状です。ただグーグルでも、人と同じように判断できるAIができるには20~30年かかると言っています。やはり何かの分野に特化したAIがどんどん開発され、それ同士が紐づいて何か新しい判断が下せるようなものができていくのを、これから我々は目にしていくのではないかと思います。

AIは優秀なパートナーという位置付けに

-- AIの浸透に向けて課題を感じることはありますか?

風越 まだまだAIは誤解も多く、過度な期待があることも事実です。そのような期待を裏切らずに、それでも現時点での可能な範囲をうまく伝えていくことが今の課題だと思っています。人の仕事をどんどん奪っていくヤツが雨後の筍のように出てくることはまだありません。どちらかというと、優秀なパートナーという位置付けだという認識を持ってもらいたいですね。

例えば何百万という論文をどんなに優秀なお医者さんでも頭に抱え込んでおくことはできないけれど、AIなら24時間瞬時に検索して「これとこれを繋げればこういう結果が出そうです」というアドバイスはできます。AIのアドバイスをもとに人間の知識をブラッシュアップして判断いただくのがいいのではと思います。

新たな課題、“ブラックボックス問題”とは

-- もう一つブラックボックス問題があるとのことですが、どのような課題ですか?

風越 AIが導き出す答えは右脳のような直観的なものであり、なぜその結論に辿り着いたのかという根拠が不透明になってしまう、というのがブラックボックス問題です。
例えば自動運転でトラブルが起きた時に、どのような状況があったのか後からわからないとメーカーの責任になってしまいます。そこをちゃんとわかるように解決していくのがAI開発者の使命ではないかと感じています。
経営判断で、いろいろな数字データから次の一手を決めようという時にも、ブラックボックスの機械に本当に判断を任せていいのかどうか。医療の場でAIが非常に重篤な病気の判断をした時も、「効くのはこの薬ですよ」と言われた時も、やっぱり根拠が欲しいですよね。

松村 AIの処理がブラックボックスになることは、これから増えていくと思います。出てくる結果にある程度の精度が高まると、気持ち悪さも抜けて自然に受け入れるようになっていくのですが、もし何らかのバイアスがあったり何かの意図が含まれていた時には、それを回避できなくなってしまいます。

ブラックボックスにならないようにするためには、使う人と提供する側のコミュニケーションで、仕組みやデータはどういうものが使われているかをお互いに共有しておかないといけないと思います。使う人にもAI自体どういうものなのかある程度の知識レベルが求められるようになってくるので、結構大変な作業が待っているのではと予想しています。

AIの判断精度と説明可能性を両立させていく

-- 富士通はブラックボックス問題に、どのように取り組んでいますか?

風越 AIが出した答えについて、その理由と根拠を説明できる「説明可能なAI」というものを開発しています。富士通の独自機械学習技術で、説明可能となるアルゴリズムをベースとして用いて、その精度を高めることによって判断の精度も説明可能性も両立させています。この技術によって、人間はAIが導き出した新しい発見や洞察に対して信頼を置くことができるようになり、AIの適用範囲の拡大や高度な活用に繋がっていくと考えています。

ブラックボックスにしないことが、なぜ大切なのか

-- ブラックボックスを良しとする方もいらっしゃるそうですが、二つの立場が出てくるのはなぜでしょうか?

松村 「全部を知らないと使ってはいけないのか」という話ですよね。例えばオートマチック車は、その仕組みを理解していなくても、安全な手順がわかっていれば運転してもいいですよね。成熟したAIで結果が予想できて使いこなせれば、中身まで知らなくても使ってよいということになると思います。でも目の前の事故であるとか、人の将来や、より重大な意思決定に関わるものであったら、仕組みをオープンにしておくことはすごく大切だと思います。

AI全般に透明性があることもそうですが、提供する方が誰のために役立つのか明確になっているということがこれからすごく大事だと思います。富士通さんの取り組みは、誰のためなのかより明確になるAIということで、すごく期待をかけられるのではないかなと思いました。

-- なるほど、ありがとうございました。