4月29日 フェイクニュース「4」

朝日新聞2019年4月25日夕刊9面:ディープな偽物と闘う 「ディープフェイク」という言葉が注目を集めている。明確な定義はないが、「フェイク」と「ディープラーニング」(深層学習)を組み合わせた造語ともいわれ、高度な画像生成技術を使って合成された動画や技術を指すとされる。そうして作られた画像はAI(人工知能)ですら「フェイク」と見抜くのは容易ではないという。増え行く画像の研究に取り組む専門家に会おうと、米国カリフォルニア州に行った。
広大なキャンパスの一角にあるれんが色の建物。カリフォルニア大学デービス校准教授のシンディ・シェン(37)が自らの研究室で手がけているのは、ネット上にあふれる画像や動画を見た時、人々は何を根拠に「これは本物」「これはフェイク」と判断するかをめぐる様々な実験だ。シェンがフェイク画像に関心を持ったのは2012年10月、ニューヨークなど米東海岸を大型ハリケーン「サンディ」が襲った際に出回った写真を目にしたことがきっかけ。自由の女神像の平後に巨大な雲が黒々と渦巻いている写真で、後から合成画像と判明した。だが「偽物」とわかっても人々の記憶に一度焼きついた画像は消えず、「これは信頼性の度合いについて新たな問題」と感じた。ディープフェイクを生み出す技術の一つが、通称「GAN」(Generative Adversarial Networks)と呼ばれる「敵対的生成ネットワーク」だ。ネット問題に詳しい経営コンサルタントの小林啓倫(48)によると、「フェイクAI」と「それを見破ろうとするAI」を競わせる手法で、「AI自らが学習するディープラーニングの最新手法だけに、見抜くのは極めて困難」だという。
GANの例として知られているのが、ニュースサイトのバズフィード側が公開したオバマ前大統領の動画。画面ではオバマ氏がトランプ大統領を口汚くののしるが、実は合成されたフェイク動画だ。こんな巧妙な動画が配信されたら人々は何を信用すればいいのかわからなくなるかもしれない。3476人の被験者を対象に、シェンが他の大学の研究者らと一緒に取り組んだ実験がある。その結果、写真を加工する時に使う「フォトショップ」のような画像編集ソフトを過去に使ったことがある人の方が、目にした画像をそのままうのみにせず「フェイクだ」と見抜くことがわかった。
この実験結果を踏まえ、「私自身が学生たちに『ディープフェイク』のビデオの作り方を教えようかと考えている」とシェン。「この技術を身につければ『この動画はフェイクだ』と見抜けるようになるかもしれないからです。ただそこまで踏み込むべきかどうか、正直いってまだ迷っています」今後も進化するとみられる「ディープフェイク」との闘いに勝算はあるのおだろうか? 「少しは希望もあります」とシェン。「でも、もしかしたら負ける可能性の方が大きいかもしれない。決して楽観はしていません」 =敬称略 (松本一弥)

朝日新聞ASAの伸光堂西部販売 森林文化協会

ご予約・お問い合わせはお気軽に

Tel0120-740-276

〒352-0011 埼玉県新座市野火止8-14-29

ページトップへ戻る