

| この記事でわかること |
|
| この記事の対象者 |
|
| 効率化できる業務 |
|
「もし明日、御社の社長が『全社員の給与を3割カットする』と宣言する動画がSNSで拡散されたら、どうしますか?」
いきなり不穏な問いかけですみません。でも、これ、もはやSFの話ではないんです。生成AIの進化は素晴らしい恩恵をもたらしてくれましたが、同時に「何が真実か」が揺らぐ、とてつもなく厄介な時代を連れてきてしまいました。
皆さんもニュースで見たことがあるかもしれません。本物そっくりの偽動画「ディープフェイク」。これが企業のリスク管理において、今、最も頭の痛い種になっています。
そんな中、2025年に向けてGoogleが非常に重要な一手を打ちました。同社の生成AI「Gemini」に、AIで作られた動画かどうかを見抜く機能が搭載されたのです。
今回の記事では、このGoogleの新機能の裏側にある技術「SynthID」について解説しつつ、私たち企業がこれから向き合うべき「情報の信頼性」について、経営企画やDX、情シスの皆さんと一緒に考えていきたいと思います。小手先のニュース解説ではなく、これからの企業防衛の羅針盤となるような内容をお届けします。
ニュースの核心:Geminiが「AI動画」を見抜けるようになった

まずは、今回のニュースの要点をサクッとおさらいしましょう。
Googleは、同社のAIモデル「Gemini」において、AIによって生成されたコンテンツであることを識別するツール「SynthID」の機能を拡張しました。具体的には、Gemini(1.5 Pro、Flashなど)が、AI動画生成ツール「Veo」で作られた動画を「これはAI製だ」と認識できるようになったのです。
これまでも画像やテキストの識別は進んでいましたが、いよいよ「動画」の領域に本格的にメスが入りました。
なぜこれが重要なのか?
これまでのAI動画は、見ればなんとなく「動きが不自然だな」とわかるレベルのものも多かったです。しかし、最新の「Veo」やOpenAIの「Sora」などが作る映像は、もう人間の目では判別不可能なレベルに達しつつあります。
肉眼で見抜けないなら、テクノロジーで見抜くしかない。 今回のアップデートは、Googleが「AIを作る責任」として、強力な「AIを見抜く虫眼鏡」をGeminiに持たせた、と考えると分かりやすいかもしれません。
「SynthID」って何? 目に見えないデジタル指紋の正体
ここで登場するキーワードが「SynthID(シンスアイディー)」です。 「電子透かし」という言葉を聞いたことがあるかもしれませんが、SynthIDは従来のものとは一味も二味も違います。
従来の透かし vs SynthID
これまでの「透かし」といえば、画像の隅っこにロゴが入っていたり、ファイルのプロパティ情報(メタデータ)に「作成者:AI」と書かれていたりするものが主流でした。 でも、これには致命的な弱点があります。
- ロゴ: 切り取れば消える(トリミング)。
- メタデータ: スクリーンショットを撮ったり、ファイル形式を変換したりすると消える。
つまり、悪意のある人間が「騙そう」と思えば、簡単に消せたんですね。
SynthIDの凄み:ピクセルに刻まれるDNA
一方で、Google DeepMindが開発したSynthIDは、映像を構成する「画素(ピクセル)」そのものに情報を埋め込みます。
もう少し噛み砕いて言いましょう。映像全体に、人間の目には絶対に見えない微細なパターンのノイズを混ぜ込むようなイメージです。これは人間の目にはただの綺麗な映像に見えますが、GeminiのようなAIが見ると「あ、ここに『Veo製』っていう刻印がある!」と認識できるんです。
しかも、この技術の本当にすごいところは、その「頑丈さ」にあります。
- 色味を変えるフィルターをかけても、
- 動画を短くカットしても、
- 動画を圧縮して画質を落としても、
この「デジタル指紋」は簡単には消えません。まるで生物のDNAのように、形を変えてもその痕跡が残り続けるのです。これをGeminiが読み取ることで、「この動画はAIで作られましたね」と判定できるようになりました。
なぜ今、企業にこの技術が必要なのか?
「へぇ、Googleすごいね」で終わらせてはいけません。ここからは、この技術が企業の経営企画や情シスにとって、なぜ死活問題に関わるのかをお話しします。
「CEO詐欺」のリアルな脅威
2024年、ある多国籍企業の香港支社で、とんでもない事件が起きました。財務担当者が、CFO(最高財務責任者)や他の同僚が出席するビデオ会議に参加し、約37億円を送金してしまったのです。 しかし、その会議に参加していたCFOも同僚も、全員がディープフェイクでした。本物は一人もいなかったのです。
怖すぎませんか? ビデオ会議ですらリアルタイムで偽装できる時代です。「社長の謝罪動画」や「新製品の欠陥を告発する動画」が拡散されたとき、それが本物かどうかを即座に判断できなければ、企業の株価は一瞬で地に落ちます。
E-E-A-T(信頼性)の担保
SEOやマーケティングの文脈でも、この話は無視できません。Googleは検索品質評価において「E-E-A-T(経験・専門性・権威性・信頼性)」を最重要視しています。
企業が発信するコンテンツに「これはAIで作ったイメージ映像です」と正直に明示すること、あるいは他社の情報を引用する際に「これはフェイクではない」と確認すること。これらは、「信頼できる企業(Brand Trust)」としての必須条件になりつつあります。Geminiによる識別機能は、その「確認作業」を助ける強力なツールになるわけです。
限界も知っておこう:これは「銀の弾丸」ではない
ここまでSynthIDを持ち上げてきましたが、冷静な視点も忘れてはいけません。この技術は万能ではないからです。
限界1:対応しているのは「一部」のモデルだけ
現時点でのGeminiの識別機能は、主にGoogle製の「Veo」などで生成された動画に対して有効です。OpenAIの「Sora」や、その他のオープンソース系AIモデルで作られた動画まで、すべて完璧に見抜けるわけではありません。 (※各社とも技術提携を進めていますが、すべてのAI動画に共通の透かしが入るまでには、まだ時間がかかるでしょう)
限界2:いたちごっこの宿命
セキュリティの世界と同じで、識別技術が進化すれば、それを回避しようとする「アンチ透かし技術」も必ず出てきます。 「Geminiでチェックして問題なかったから、100%人間が作った動画だ!」と断定するのは危険です。あくまで「判断材料の一つ」として捉え、最終的には文脈や出典元の信頼性など、複合的な要素で判断する姿勢が不可欠です。
まとめ:AIと共存する未来の「信頼」の形
長くなりましたが、今回のニュースから私たちが受け取るべきメッセージはシンプルです。
「『見る』ことが『信じる』ことではなくなった時代に、私たちはどう信頼を築くか?」
GoogleがGeminiにSynthID識別機能を搭載したのは、単なる機能追加ではありません。「AIが作ったもの」と「人間が作ったもの」を明確に区別し、それぞれの価値を正しく評価できる社会インフラを作ろうとしているのです。
明日からできる3つのアクション
- 知る:経営層やチーム内で「ディープフェイクのリスク」と「SynthIDのような対抗技術」について話題にする。
- 試す:Gemini 1.5 Proなどが使える環境があれば、実際にAI生成コンテンツの識別を試してみる(※機能のロールアウト状況によります)。
- 備える:自社のAI利用ガイドラインに「生成コンテンツの明示」と「外部コンテンツの検証」の項目を追加する。
テクノロジーの進化は止まりません。不安になることもありますが、こうして「正しく使うための技術」も同時に進化しています。 AIを恐れすぎず、かといって盲信せず。賢くツールを使いこなして、信頼される企業であり続けましょう。
もし、「自社のAIガイドライン、どう作ればいいの?」「従業員向けのセキュリティ教育、何から始めれば?」といったお悩みがあれば、ぜひ専門家や信頼できるパートナーに相談してみてください。一人で抱え込むには、少し荷が重すぎるテーマですからね。








