10月15日 AI兵器 命の責任誰が負う

朝日新聞2019年10月13日4面:人間の制御超える懸念 人間の判断を介さずに敵を殺傷できる「AI兵器」が現実味を帯びてきた。登場したら、戦争の姿をどう変えるのか。「命」への責任を誰が負うのか、見えなくならないのだろうか。離れたところからコントローラーで自動モードを選ぶ。砲塔についたカメラが標的を探し始め、とらえるとモニター画面には瞬時に距離などだまざまな数字が表示された。次の瞬間、画面が揺れ、映し出された的が倒れていた。今年6月、モスクワ近郊で開かれた防衛装備の見本市で、ロシアの兵器メーカー、カラシニコフが紹介した無人戦闘システム「サラートニク」だ。会場には、実際にカメラを備えた砲塔や小型の無人戦闘車両「ウランー9」も展示された。ロシア語で「友軍」を意味するシステムには人工知能(AI)が使われ、敵か味方か、難民かテロリストかなどを判断して攻撃する。有人の部隊とともに移動しながらの使用が想定されている。味方や民間人を誤射することはないのか。システムがハッキングされたり、兵器が暴走したりする恐れはないのか。同社のウラジーミル・ドミトリエフ社長は朝日新聞の取材にこう答えた。「自社開発のAIが正確に判断する。数学に間違いは起きない」実戦配備は、輸出の計画は・・重ねて尋ねると、ドミトリエフ社長は「製造や輸出は政府が管理している」としつつ「多くの国が興味を示しているのは事実」と語った。同社の技術力については懐疑的な専門家も少なくないが、荒唐無稽のセールストークには見えない。会場では、同社の説明に熱心に聴き入るジンバブエの政府関係者の姿も見られた。この無人戦闘車両は昨年、通信による遠隔操作ながら実践で使われたこともある。シリアのアサド政権の後ろ盾として内戦に介入したロシア軍が、試験的に投入したとされる。そこから一歩進み、実戦でAIが移動や発泡の判断までするようになれば自ぅ戦で課題とされた通信能力や範囲にとわられない軍事作戦が可能になる。このようなAI兵器は専門用語で「LAWS」(自律型致死兵器システム)と呼ばれる。人間が直接関与せずに敵を殺傷する「仕掛け」自体は、新しいものではない。ベトナム戦争では竹やり付の落とし穴が使われた。地雷や冷戦以降の防空迎撃システムなど、人間の関与を限定する兵器は防衛目的などでこれまでも使われてきた。しかし、ついにAIの進化が、攻撃を担う自律型兵器を現実味のあるものにしつつある。AIの判断で自律的に動き、標的を殺傷する能力をもつドローン(無人航空機)や戦闘車両は、実用化には至っていないものの米ロや中国、イスラエル、韓国などが開発を進めているとされる。「過去と明らかに違うのは、AIの情報処理能力が人間を上回り、人間が制御したり説明したりできなくなる恐れがある点だ」防衛省防衛研究所の小野圭司・研究室長は自律型兵器の問題点をこう指摘する。東京先端科学技術研究センターの小泉悠・特任助教は「ロシアはデジタル化の技術革新に乗り遅れた。だからAIと軍事技術では、ルールを作る側に回りたいという強い意志が見える」と話す。。LAWSが実戦投入できるようになれば、戦争へのハードルが下がることが予想される。その前に、開発を規制すべきだという危機感も強まっている。地雷などを規制してきた特定通常兵器使用禁止制限条約(CCW)の枠組みを使い、スイス・ジュネーブで8月、政府専門家会合が開かれた。5年越しの議論を経て、人を介さずAIが攻撃を判断する「ロボット兵器」を認めないという理念に各国が合意。AI兵器の使用の責任は人間にあるなど、11項目からなる初めての指針を採択した。しかし、指針に法的拘束力はなく、条約などによる規制への道のりはまだ遠い。政府同士の動きが鈍い中で、現実はどんどん進んでいる。「最先端技術が軍に集まる時代は終わった。AI分野は、グーグルなど民間が圧倒的に先行している」。日本政府代表団の一員として専門家会合に参加した拓殖大の佐藤丙牛教授は、こう警鐘を鳴らす。(渡辺淳基、宮地ゆう)
「開発担えない」グーグル去ったエンジニア 「もし自分がAI兵器の開発に関与したら」。グーグルで働いていたローラ・ノーランさん(39)が持っていた恐れが現実になったのは、一昨年春のことだった。ある日、上司から新たな大規模プロジェクトが始まると告げられた。内容は「ドローンだ」とだけ。同僚はみんなで上の部署の責任者らを何度も問い詰めると、恐れた通りだった。グーグルは、戦場でドローン攻撃をするときに人や物を識別する画面認識の技術開発を、米国防省かた請け負っていた。「当時は守秘義務に縛られて誰にも相談できず、悩むばかりの毎日だった」とノーランさんは振り返る。2018年3月に米メディアがこの計画を報じると、批判はグーグル社内に広がった。約4千人の社員が「自分たちの技術を兵器開発に使わせない」とする公開書簡に署名。ノーランさんもその一人になった。講義して幹部も辞めていく事態になり、スンダー・ピチャイ最高経営責任者(CEO)は同年6月、「自社のAIを兵器の開発や監視技術に使わない」などとする原則を発表した。ただし、国防省との契約は期限まで継続するとした。エンジニアであるノーランさんにとって、グーグルはあこがれの職場だった。それでも「AI兵器の開発を間接的にでも担うのか」と自問すると、答えはすぐに出た。同じ月、5年余り務めたグーグルを辞めた。軍事と民生の技術が分かちがたい現代、同じような問題は起こりうる。アマゾンの顔認証技術も不当に使われる可能性があると批判されてきた。ノーランさんは「AI兵器にはクラウドを使った技術が不可欠。シリコンバレーには米軍と何らからの関係を持っている会社は多い」と指摘する。ノーランさんは今、アイルランドのソフトウエア会社で働きながら、AI兵器の禁止を呼びかける国際NGOでボランティアとして働く。ノーランさんは、画像認証が位置情報と結びつけられ、監視している場所を何人かが集団で敵とみなす可能性があるとみる。さらに、戦場でAI兵器との通信が途絶えれば、その間にAIが誰を攻撃したのかすら人間が把握できない恐れもあるという。人間の手に負えない「殺人ロボット」という悪夢を避けるためには、AI兵器を管理できる広範なしくみ作りが早急に求められる。

 

朝日新聞ASAの伸光堂西部販売 森林文化協会

ご予約・お問い合わせはお気軽に

Tel0120-740-276

〒352-0011 埼玉県新座市野火止8-14-29

ページトップへ戻る