PSI CyberSecurity Insight

トップ> Insight Post一覧> PSI CyberSecurity Insight 第10号:ディープフェイク技術を悪用した「CEO詐欺」が深刻化、音声・映像の信頼性が揺らぐ

2025年12月19日

株式会社ピーエスアイ

ディープフェイク技術を悪用した「CEO詐欺」が深刻化、音声・映像の信頼性が揺らぐ

背景

AI技術を用いて人物の音声や映像を精巧に偽造する「ディープフェイク」が、企業を標的とした詐欺攻撃に悪用される事例が継続的に報告されています。従来のビジネスメール詐欺(BEC)が進化し、経営幹部の音声や映像をリアルタイムで偽装したビデオ会議を通じて、財務担当者に不正送金を指示する手口が確認されています。香港では2024年初頭に、CFOを含む複数の幹部が参加するビデオ会議が全てディープフェイクであったという事例で、約2億5千万香港ドル(約46億円)の被害が発生しました。「声や顔を見て確認すれば安全」という従来の常識が通用しなくなりつつあります。

実態

攻撃者は、ターゲット企業の経営陣が登壇するカンファレンス動画、決算説明会の録画、SNS投稿などから音声・映像データを収集し、ディープフェイク生成AIで学習させます。わずか数分の音声サンプルがあれば、自然な話し方や抑揚を再現した偽音声を生成できる技術が既に存在しています。攻撃の手口としては、まずフィッシングメールで初回の接触を行い、その後「緊急の案件」として電話やビデオ会議を設定します。リモートワークの普及により、オンライン会議が日常化したことで、経営陣と直接対面せずに重要な判断を下す機会が増え、攻撃者にとって好都合な環境が整っています。また、生成AIツールの民主化により、高度な技術知識がなくても比較的容易にディープフェイクを作成できるようになったことも、攻撃増加の一因となっています。

影響と対策

ディープフェイク詐欺による直接的な金銭被害に加え、企業の信頼性低下や内部統制の欠陥として評価される二次的リスクも無視できません。対策としては、まず組織内で「音声や映像も偽造される可能性がある」という認識を共有し、高額送金や機密情報の取り扱いに関しては、複数の確認手段を組み合わせた多段階承認プロセスを確立することが重要です。具体的には、ビデオ会議での指示であっても、別の通信手段(事前に登録された電話番号への折り返し確認、社内チャットでの再確認など)で本人確認を行う運用ルールの徹底が必要です。技術的対策としては、FortiGateやCheck Pointのメールセキュリティ機能により、フィッシングメールの初期段階での遮断、異常な送金パターンを検知する不正検知システムの導入が有効です。

まとめ

「百聞は一見に如かず」という格言が通用しない時代が到来しました。音声や映像による確認も絶対的な信頼性を持たなくなり、人間の感覚だけでは真偽を判断できない状況が現実のものとなっています。技術の進化に対応した新しい本人確認プロセスと、従業員への継続的な教育が不可欠です。PSI社では、ネットワーク製品を通じて、進化する詐欺手口に対応できる多層的な防御体制の構築をご支援いたします。

会社概要

社名:株式会社ピーエスアイ(PSI)
所在地:〒160-0022 東京都新宿区新宿5丁目5-3 建成新宿ビル4階
設立:1994年
TEL:03-3357-9980
FAX:03-5360-4488
URL:https://www.psi.co.jp
事業内容:サイバーセキュリティ製品の販売および導入支援、運用サポート、ITコンサルティング

報道関係者様からのお問合せ先

株式会社ピーエスアイ
広報担当:内藤
電話番号:(03)3357-9980
Eメールアドレス:psi-press@psi.co.jp