
2024年、英国のエンジニアリングコンサルティング会社Arupが、AIを利用したディープフェイク詐欺により約40億円の被害を受けました。
この事件は、AIの進化に伴う新たな脅威と、企業の財務セキュリティ強化の必要性を浮き彫りにしています。
AROUSAL Techの代表を務めている佐藤(@ai_satotaku)です。 技術が進歩すれば、それは意図せず悪いことに使われてしまうというのは残念ながら世の常です。 正直、ディープフェイクという技術に関して、どのように有効に活用していくのかよりも「悪いことに使えそう」というイメージがあるのではないでしょうか。 本来は、AIアシスタントやカスタマーサポートエージェントの顔や声にカスタマイズすることで、サービスの幅をより広げることができたりします。 生成AIに関してポジティブな情報は山ほどありますが、それと同じくらいネガティブな情報もありますので、あえてこういった記事も発信することで、リスクやその対策を知るきっかけにしていただければと思います。 感想をX(旧Twitter)でポストしていただけると嬉しいです。メンションも大歓迎です! |
ディープフェイク詐欺の手口と被害の実態
Arupの事件では、AIを使ったディープフェイク技術により、詐欺グループが同社のCFO(最高財務責任者)になりすまし、従業員に香港の銀行口座への送金を依頼しました。
従業員は、なりすましたCFOや他の従業員とのビデオ会議を経て、5つの異なる香港の銀行口座に複数回の送金を実施しました。
被害総額は2億香港ドル(約2500万ドル、日本円で約40億円)に上り、従業員がArup本社に問い合わせて初めて詐欺が発覚しました。
Arupは2024年1月に香港警察に事件を報告し、偽の音声と画像が使用されたことを認めています。
この事件は、ディープフェイク技術の悪用による新たな脅威を示しており、企業の財務セキュリティに対する重大な警鐘となっています。
CFOと企業が直面する新たな脅威
KPMGのサイバーセキュリティ専門家、マシュー・ミラー氏は、CFOが企業の財務の鍵を握っているため、詐欺グループのなりすましのターゲットになりやすいと指摘しています。
ディープフェイク技術を用いた詐欺は、以下のようなリスクをもたらします。
- 認証要件の回避
- 正規の顧客口座への不正アクセス
- 送金権限を持つ個人へのなりすまし
- 大規模な詐欺の実行
生成AI(Generative AI)の登場により、詐欺グループはこうした詐欺を大規模に実行できるようになりました。一度成功すると、その資金を使ってさらに多くの詐欺を実行するための手段を強化する可能性があります。
企業の対策と従業員教育の重要性
ディープフェイク詐欺から企業を守るためには、以下の対策が重要です。
- CFOや経営幹部の意識向上
- 従業員への脅威認識の徹底
- ビジネスプロセスの再検討
- 適切な管理と監視の実施
特に、財務責任者はディープフェイクによるソーシャルメディア攻撃の被害を受けやすいビジネスプロセスを再検討し、そのリスクを防ぐための適切な管理と監視を実施する必要があります。
従業員教育も重要です。経営幹部がなりすましの被害に遭う脅威や、そのような詐欺行為が重要なビジネスプロセスにどのような影響を与えるかについて、従業員の認識を高める必要があります。
ディープフェイク技術の他の悪用事例
Arupの事件以外にも、ディープフェイク技術の悪用事例が報告されています。
- 仮想通貨企業Quantum AIによるTeslaのイーロン・マスクCEOのディープフェイク画像利用
- 2020年の米国選挙での中国とイランによるディープフェイク利用の疑い
これらの事例は、ディープフェイク技術が企業詐欺だけでなく、政治や社会にも大きな影響を与える可能性を示しています。
各国政府の対応と規制の動き
ディープフェイク技術の脅威に対し、各国政府も対応を始めています。
- 米国:ジョセフ・バイデン大統領が2024年3月の一般教書演説でAIが操作するディープフェイクの脅威を強調
- EU:2024年に「EU AI法」を可決、AI利用の要件と罰則を規定
これらの動きは、AIとディープフェイク技術がもたらす潜在的なリスクに対処するための国際的な取り組みの始まりを示しています。
まとめ
ディープフェイク技術を用いた詐欺は、企業の財務セキュリティに新たな脅威をもたらしています。
Arupの40億円被害事件は、CFOや企業が直面するリスクの深刻さを示しています。
企業は従業員教育や業務プロセスの見直しなど、適切な対策を講じる必要があります。
同時に、各国政府による規制の動きも進んでおり、技術の進化に伴う新たな脅威に対する包括的なアプローチが求められています。