5月8日 説明できるAIへ進む研究

朝日新聞2019年5月6日2面:結論だけ提示「思考」はブラックボックスー 人工知能(AI)の活用が広がる中、クルマの自動運転や医療、軍事など、人命や経済損失につながる分野で使うには、「なぜその結論を出したのか」が人間には分からないことが大きな課題になっている。AIを信頼するためにカギとなる「説明できるAI」を実現しようと、様々な取り組みが国内外で進む。 ミス許されぬ分野 実用化への壁 防犯カメラに映った数千人の群集の中から不審者を特定したり、囲碁で最強の棋士を打ち負かしたりー。日常生活の中ですでにAIは身近になりつつある。コンサルティング会社マッキンゼーは昨年9月、AIの普及が、2030年までに全世界で約13兆㌦(1452兆円)の経済効果をもらたすという予測を公表した。一方、その能力をさらに発揮するには大きな課題もある。高性能AIの正体は、コンピューターでしか解けない極めて複雑な計算式のようなものだ。結論だけを表示する「ブラックボックス」で、その判断によって人命や財産に損害が出た際に検証が難しく、実用化の壁になっている。前橋市では3月まで、路線バスに乗客を乗せて自動運転する全国初の実証実験を行ったが、AIは使わなかった。
実験に関わった群馬大次世代モビリティ社会実装研究センター長は「ミスが許される環境で、中で何を考えているのかわからなくても、結果さえ出ていればいい。だが事故が起きたとき、なぜ起こしたのか、どのような対策をするのかについて、AIは十分な説明ができない」と指摘する。こうした問題について、欧州委員会の専門家グループは4月の倫理ガイドラインで、説明できることについて「利用者がAIシステムを信頼し、維持するために必須」とした。日本も、3月末に政府の会議が決定した「人間中心のAI社会原則」で、「公平性、説明責任および透明性の原則」を盛り込んだ。
「なぜ判断」人間にも分かる仕組み ストックホルムで昨年7月に開かれた。国際人工知能会議。世界から集まった研究者の会合で、米海軍研究所のデービット・エイハ氏は「『説明できる(eXplaiable)AI=XAI』は今や定番の議題になった」とあいさつした。XAIとは、様々な工夫を凝らしたAIの思考過程を人間が理解できるようにする技術だ。特に、司法などでAIを本格的に活用するには、過程を検証できることが重要で、国内外で研究が進められている。
大阪大産業科学研究所の原聡助教は、AIが画像のどこに注目しているのかを可視化する研究をしている。例えば、ヒグマが写った様々な画像をAIに見せ、「ヒグマ」と認識できるか調べる場合、正しく認識できていると、ヒグマ以外は赤く塗りつぶされて表示される。AIがヒグマだけを注目していたとこが、人間にもわかる仕組みだ。一方、AIがヒグマを「バイソン」と誤認識した例では、ヒグマの後ろにある自動車の一部も塗りつぶされずに残っていた。これを人間が見れば、「AIはヒグマ以外も注目して間違えたらしい」と判断でき、原因の検証にも生かせる。原さんは「医療や金融などでますますAIが使われる。人間が納得できる説明を、複雑なモデルからどうやって取り出して橋渡しをするかが重要だ」と話す。日立製作所は、医療分野での実用化を目指して「根拠を説明できるAI」を開発中だ。
心臓病の患者について、30日以内に再入院する可能性を「78%」のように予測する。合せて、その根拠を過去の治療や投薬、病歴などのデータを基に説明できる深層学習技術を開発し、結果について医師が納得できるようにした。米国の病院のデータを使ったシュミレーションでは、再入院が必要な患者を選ぶ基準の精度を高めることで、これまでと比べて再入院せずに済む患者数が2倍以上になり、1人当たりの医療費が年に約80万円減るという結果が出た。主任研究委員の芝原琢磨さんは「AIが『この患者は30日以内に必ず再入院する』と判断するとともに医師に『なぜなら、発熱していて糖尿病を併発しているから』という説明ができて、初めて使い物になる」と説明する。
米、軍事利用を視野 XAIが活発に研究されるようになったきっかけは、米国防高等研究計画局(DARPA)が17年、有名大学や企業など11の研究チームに資金を提供して始めたプロジェクトだ。DARPAは今後数年間、XAIなどのAI技術に20億㌦(2234億円)超を投じると表明している。背景にあるのは、クルマの完全自動運転のようにAIが判断して自律的に動く兵器システムの研究だ。米空軍研究所は3月、AIを搭載した自律型の戦闘ドローン「スカイボーグ」の試作機を23年までに実現すると発表した。詳細は明らかにしていないが、有人の戦闘機などの「僚機」として作戦をともにする構想とみられている。一方で、AIが暴走して国際法に反するような殺傷につながる懸念もある。米国防総省は、AI兵器の運用について「適度な人の介在」を求める原則を定めている。DARPAの担当責任者のデービット・ガニング氏は「(AIの)自律システムは、管理者である人間の兵士のパートナーになる。管理のために、人間はシステムから説明を受けたいものだ」と話す。(松尾一郎、勝田敏彦)

 

朝日新聞ASAの伸光堂西部販売 森林文化協会

ご予約・お問い合わせはお気軽に

Tel0120-740-276

〒352-0011 埼玉県新座市野火止8-14-29

ページトップへ戻る