ディープフェイクは大衆化
“ディープフェイク”という言葉は、まだ専門用語の域は出ないとしても、政治家や経済人、俳優など、著名人を擬した音声や映像が流通している現状、そして生成AIの浸透でそれが加速している実態は、多くの人が知るところでしょう。
ディープフェイクは、実際の音声や画像、映像の一部を加工して偽の情報を組込み、本物のように見せかける手法です。AIの学習方法の一つである深層学習(Deep Learning)と偽物(Fake)の合成語で、2017年に米国でポルノ動画の顔を有名女優と差し替えて公開したユーザーのアカウント名「DeepFake」がその由来とされています。
まずディープフェイクの周知につながったいくつかの事案と、国内企業にも脅威になり得ることを知らしめた犯行から振り返っておきましょう。
爆破映像で株価が急落
音声や画像を合成して、本人のようなデータを作り出す技術自体は違法ではなく、映画制作などのエンターテイメント分野を中心に活用されてきました。有名なところでは、SF映画「アバター」に登場するエイリアン。俳優の表情を大量に学習してCGと合成し、より豊かでリアルな表現を実現しています。
悪用が目立ち始めたのは2017年前後とされていますが、当時、オバマ大統領やフェイスブック(現メタ)のザッカーバーグCEOなど、著名人を標的にしたフェイク映像がSNSで拡散。比較的最近では、2023年5月、米国防総省が爆破されたという偽画像が流れ、ニューヨーク株式市場のダウ工業株30種平均が、一時は80ドル近く急落するなど混乱が拡がりました。
米国防総省が爆破されと伝えた偽画像 出典:毎日新聞
ディープフェイクは、政治的プロパガンダやビジネスの妨害、悪質ないたずらが多いのですが、特定の企業を狙った金銭目的の犯罪も少なくありません。
CEOの声を偽装し振込みを要求
音声合成を使った詐欺事件として、2019年に英国のエネルギー会社が被害を受けた一件がよく知られています。親会社のCEOを真似た音声で、22万ユーロ(当時のレートで約2,800万円)を、1時間以内に送金するようにとの依頼がありました。英国のCEOは3度目の電話の際、発信元の番号に不信感を覚えて2度目の送金依頼には応じませんでしたが、1回目は被害を受けたとされています。
国内でもこれに近い犯行は起きています。IPA(情報処理推進機構)が2023年8月に公開した「サイバー情報共有イニシティブ(J-CSIP)運用状況」では、ディープフェイクを使ったと思われる音声とメールを組み合わせた詐欺の実例が報告されました。
国内企業A社の会長に成りすました攻撃者が、関連企業B社の社長に機密プロジェクトへの協力をメールで依頼。続いてA社の専務を騙ってB社長に電話をかけましたが、社長は専務ではないことに気付きそれを指摘すると、電話は一方的に切断。B社長が疑問を持った理由は、情報提供の範囲外としてIPAは詳細不明としていますが、これがなければ騙されていたかもしれません。
合成音声を利用した攻撃者とのやり取り 出典:IPA(情報処理推進機構)
AI生成ツールは日々進化
画像に比べ情報量が少ない音声は、もともとフェイクを見破りにくいのですが、英国のエネルギー企業の一件では、市販のソフトが使われたとされています。現在の音声生成ソフトの精度は向上しており、例えば、マイクロソフトが発表したVALL-Eは、3秒の音声データがあれば、その特徴を忠実に再現して発話する性能が注目されました。
VALL-Eに限らず、ここ1~2年で発表されるAIを使った生成ツールは、少ないデータ量から効率的に学習する機能に加えて、専門知識なしでもデータ生成ができるようになっています。その意志があれば、誰でもディープフェイクの悪用に着手する環境は整い、その脅威は急速に増してきたのです。
防御技術の進展は?
危険度が高まるディープフェイクに対し、抑止する技術の開発も進んできました。一つの方向は、フェイクコンテンツの検出です。例えば、生成ツールを使って顔を差し替えた動画像に対し、加工した痕跡を見抜くMesoNetというアルゴリズムをコーネル大学などのチームが発表し、これを採り入れたシステムの開発も進んでいます。
国内でも国立情報学研究所(NII)は、ディープフェイクを抑止する技術の開発を続けてきました。成果の一つは、画像を加工した痕跡を検出するSYNTHETIQ VISION。巧妙なフェイク映像の検証には、複数の深層学習を使う技術と設備が必要ですが、このシステムは映像のアップロードから判定、ダウンロードまでのプロセスをパッケージ化し、一般企業や団体も使えるようにしたものです。
STNTHETIQ VISIONの概要 出典:国立情報学研究所
標準技術の確立に向け業界も動く
IT企業の動きも活発化してきました。メタは2024年2月、FacebookやInstagramなどのSNS上に、同社のAIツールを使って生成した画像を登録すると、AIの利用を識別できるラベルを付けると発表。Googleも同社のGemini(旧Google Bard)のAI機能を使った画像には、独自の電子透かしを埋め込むとしています。
業界横断の方式として、C2PA:Coalition for Content Provenance and Authenticity(コンテンツの来歴と真正を保証する連合)に参画する事業者も増えてきました。2021年に運用が始まったオープンソースの技術仕様で、コンテンツの生成元に関する情報と、来歴(Provenance)と呼ぶ作成・更新の記録を暗号化して管理する手法です。
C2PA仕様の浸透によって、コンテンツの真正証明と提供元の確認、更新履歴の入手が容易にできる環境が整うものと期待されます。C2PAのコンソーシアムは、アドビとマイクロソフト、インテルなどを中心に組織され、現在は1,500以上の企業・団体が参加。2024年5月には、ChatGPTの開発元であるオープンAIも運営委員会に参加すると発表しました。
課題の一つは電話とテキストベースのフェイク検出
C2PAやSYNTHETIQ VISIONなど、標準仕様や要素技術は各国の企業・団体から提示されていますが、生成ツールが大衆化した環境では、警戒を緩めることはできません。現状の課題として、まずコンテンツを扱う企業やメディア関係者に、抑止技術に関する認知があまり進んでいない点が挙げられるでしょう。
技術的な課題では、ここはディープフェイク対策に限りませんが、攻撃側の手口も進歩すること。電子透かしのデータを迂回する、編集で切り取る方法は、ダークウェブでも共有されているようです。各社が新しい方式を打ち出しても、いたちごっこが続いてしまうでしょう。もう一つ、画像に比べると、音声と文字ベースのフェイクを検知する仕組みの開発と運用が遅れている点も課題と言えそうです。
ディープフェイク対策に学ぶ企業のスタンス
認知度の不足と技術的な課題は残るとしても、各所から発表されているディープフェイク対策は、鎮静化の一助になっていくことは確かでしょう。偽造コンテンツを検出する技術とツールへの期待は高いのですが、中長期の視点では、データの生成時から認証の要素を採り入れる発想は欠かせません。
C2PAもその一例ですが、コンテンツが流通を始める時点で、受取る側も真贋判定ができる環境の早期の整備が期待されます。生成の段階から改ざんを防ぐ技術の開発も続けられており、例えば、NIIでは人物の画像に僅かなノイズを入れて改ざんを難しくする方法や、顔の特徴を示す情報をあらかじめ埋め込んでおき、変造されても元の画像に戻す“サイバーワクチン”の開発も続けています。
サイバーワクチンを打った画像(下段)は変造されても復元が可能 出典:国立情報学研究所
情報システムの起点からセキュリティ対策を採り入れる手法を、セキュリティ・バイ・デザインと呼んでいます。これまではシステムが稼働した後に、後追いで安全対策を施してきたやり方に対する反省として、ここ数年でクローズアップされてきたコンセプトです。
一般企業でもこの考え方は参考になるはずです。例えば、ディープフェイクを使ったビジネスメール詐欺や遠隔会議はあり得るものとして、早期に検出ツールや電子透かしに対する周知と対応を考える。
また、新しいシステムの稼働時、クラウドサービスの導入時なども、100%の侵入阻止は困難という現実を直視し、侵入を前提としたマルウェア対策、そして脅威に関する最新の情報を随時、配信する脅威インテリジェンスの活用など、常に先回りしてセキュリティ対策を整えていきましょう。