AIによる偽情報を世界の専門家はどう検証しているか インドDAUが語るディープフェイク最前線

実物と見紛う偽の映像や音声などをAIで作る「ディープフェイク」。世界中のファクトチェック団体が検証に取り組んでいますが、爆発的に増えている上に、技術の進歩で人間の目では見極めが難しいものも出てきています。ディープフェイクの検証に専門的に取り組んでいるインドの団体に話を聞きました。
組織を超えた協力で生まれた「ディープフェイク分析班」
インドで活動するDeepfakes Analysis Unit(ディープフェイク分析班、DAU)は2024年の総選挙をきっかけに誕生しました。ジャーナリストや技術者など、多様な人材の知見を生かして、インド国内のみならず、世界中のディープフェイクの検証をサポートしています。
元々、インドには偽/誤情報対策に取り組むファクトチェック団体やメディアなど13団体(2025年6月現在)で構成する民間組織「Misinformation Combat Alliance(誤情報対策同盟、MCA)」がありました。
DAUはMCAの関連組織として、Metaの支援を受けて誕生。現在は3名の事務局と数名の技術チーム、インド内外の研究機関と連携して、解析にあたっています。
オフィスはなく、メンバーはリモートで作業。コミュニケーションアプリに設けた専用窓口にインド中から寄せられる「ディープフェイクでは?」という通報を解析しています。
培った知見を活かして、ディープフェイクの分析など活動を広げており、検証対象もインド国内の事例に限らず、アジア、世界へと広げています。
日本ファクトチェックセンター(JFC)も、2025年4月の記事で、拡散した画像や動画が生成AIによるものか、DAUに検証してもらいました。
JFC"ミャンマー地震の被害の映像? 生成AIによるディープフェイクなど拡散【ファクトチェック】"

インドと世界のディープフェイク被害
インドを含む世界各国で大規模な選挙が相次いだ2024年は、ディープフェイクの拡散が懸念され、各国で対策も広がりました。DAUはその1つです。
2024年は、ディープフェイクよりもAIを用いない「チープフェイク」の方が拡散していました。しかし、技術の進化とともに、より巧妙なディープフェイクを誰でも作成できるようになり、その数は激増しています。
ディープフェイクは選挙だけでなく、詐欺にも用いられ、インドでは2025年の被害額が約1.2兆円に達するという予測も出ています。世界全体では約1503兆円との予測もあります(Pi-Labs Digital Deception Epidemic 2024 report on deepfake fraud’s toll on India)。
ディープフェイクにどう対抗すればよいのか。具体的な検証方法も含めて、DAU事務局の責任者、Pamposh Raina氏に話を聞きました。
AIによる偽画像の見分け方 DAUに聞く
投資・健康・政治が標的に
Q インドでは、どのような話題がディープフェイクの標的になりやすいのでしょうか。
DAUに寄せられる分析依頼の多くは、5つのカテゴリーに分けられます。
1つ目に、詐欺。著名人や実業家などが偽の投資話や金融サービスを勧めているように見せかける動画など、信用力のある人物を利用することで、詐欺の信ぴょう性を高めようとする手口です。
2つ目は、ニュース。時事問題や報道と関連した映像や音声が多く、社会の関心が高い話題に便乗して拡散します。
3つ目に、健康。偽の治療法や健康商品を紹介するように見せかけたコンテンツです。
4つ目に、政治。特に選挙期間に増える傾向があります。
5つ目に、災害。主に海外から報告されるもので、災害の映像に偽の要素が加えられているケースです。ロサンゼルスの山火事の映像や、ミャンマー地震に関するものなどです。
(※以上、DAU Assessment Reportsに多数の事例が掲載されています)。
コミュニケーションアプリに設けた通報窓口
Q 具体的に、どう検証しているのでしょうか。
一般のユーザーがディープフェイクかもしれないと思ったら、通報してもらう窓口「ティップライン」を(コミュニケーションアプリの)WhatsAppに設けています。
届いたコンテンツに関して、私を含め3名の事務局が、外部の4〜5名の技術チームと連携して分析をしています。
まず目視でAI生成の兆候がないか確認します。疑われるケースは複数の検出ツール(Hive AI、Hiya、Deepfake-o-meter など)でも分析します。
次に、デジタルフォレンジック(注:デジタルデータの専門的な分析)の専門家や技術者、学術機関に調査を依頼してレポートを作成します。
結果はウェブサイトで公開し、ティップライン経由で通報者にもフィードバックします。通報者には合わせて偽情報を見抜くヒントをまとめた教育動画も提供しています。海外のファクトチェック団体からの依頼で、分析に協力することもあります。
フェイススワップやリップシンク...、ディープフェイクの多様化
Q ディープフェイクは様々な種類があります。DAUはどう分類していますか。
ディープフェイクには、次のような手法があると分類しています。
・フェイススワップ:他人の体に別人の顔を合成した映像
・完全生成ディープフェイク:AIがゼロから作った映像や音声
・ボイスクローン:実在の人物の声を模倣した音声を生成し、その人が言っていないことを言わせる
・リップシンク:口の動きを改変し、実際には話していないことを言っているように見せる
・音声改ざん:本物の音声と合成音声を混ぜたもの
こうした技術は日々高度になっており、現実と見分けがつかないほど精巧なケースも増えています。
ディープフェイクとチープフェイク
Q そもそも、何を「ディープフェイク」と定義しているのでしょう?
どういうコンテンツをディープフェイクと呼ぶべきかについては、専門家の間でも意見が別れます。私たちは主に「AI生成コンテンツ」、「改ざんされたコンテンツ」、「ディープフェイク」、「チープフェイク」の4つに分けています。
「AI生成コンテンツ」は、AIでゼロから作られた映像や音声で、実際には起きていない出来事や人物を描いたものです。
「改ざんされたコンテンツ」は、編集ソフトなどの単純な技術や、AIなどの高度な技術で、映像または音声を改変し、誤解を生むナラティブ(語り口)を作り出すものです。
「チープフェイク」は、Photoshopや編集ソフトなど、比較的単純な技術で作られたコンテンツです。AIが使われたとしても限定的です。
「ディープフェイク」は、「人物に関する架空の表現を含む、あらゆる合成メディア」と定義しています。生きているか亡くなっているかを問わず、人物の行動や発言を偽って見せるコンテンツが含まれます。
(以上、DAU 「What are Deepfakes?」が参考になります)
急増する「リップシンク」「声色操作」
Q 最近特に増えているのは、どんな種類ですか。
ゼロからすべてをAIで生成した高度なディープフェイクは、数年前に予想されていたほど急速には増えていません。
明らかに増えているのは「リップシンク」や「声色操作」のような、既存のコンテンツをAIで改変する「AI操作コンテンツ」です。制作コストが比較的安いからでしょう。DAUが分析するコンテンツの多くも、「AI操作コンテンツ」です。
検証困難な「ボイスクローン」
Q 見破るのが最も難しいのは、どんな種類ですか?
「ボイスクローン」です。見破るのが難しい最大の理由は、視覚的な手がかりがないことです。動画であれば、リップシンク(唇の動きと音声の一致)のずれや、顔の不自然さなどから偽物を見破りやすいですが、音声だけの場合、そうした手がかりがありません。
また、ボイスクローンの技術は日々進歩しており、検出が難しくなっています。初期のボイスクローンは、単調でイントネーションに欠け、話し方が不自然で機械的だという特徴が見られました。しかし最近は、意図的に背景ノイズを挿入して見破りにくくしているものもあります。
通常、音声クローンには、自然な会話に含まれる「えーと」や「あー」などの言い淀みは、含まれませんが、技術の進歩により、言い淀みも含めてどんどん見破りにくくなる可能性があります。
検出ツールの限界
Q 専門のツールでも、見破れないのでしょうか。
検出ツールにも限界があります。私たちは日々、様々な検出ツールを使っていますが、どのような教師データ(AIが正解を学習するための元データ)を使って開発したかによって、性能が異なります。
元になったデータが特定の言語やアクセントに偏っていたり、背景ノイズや音楽が含まれたりする音声や、圧縮率の高い低品質な音声の場合、分析結果が信頼できないことがあります。
デジタル・フォレンジック(注:デジタルデータの専門的な分析)の専門家による分析も不可欠ですが、それでも100%確実に見破ることは難しいです。
印パ緊張で拡散する政治家が標的のディープフェイク
Q 2025年4月、カシミール地方でのテロを機にインドとパキスタンの緊張が高まっています。拡散したディープフェイクに変化はありましたか?
この件に関連する通報がいくつか寄せられました。DAUでは、パキスタンのシャリフ首相、インドのモディ首相、ジャイシャンカル外相、シャー内相に関するディープフェイクや操作されたメディアを分析し、様々なレポートを公開しています。
例えば、シャリフ氏の動画は映像に合成音声を重ねた「改ざんメディア」と判定しました。
一方、モディ氏らの動画は、音声と映像の両方がAIによって生成または改ざんされたディープフェイクだと判明しています。特に、口元だけを改変するリップシンクの痕跡が専門家によって指摘されました。
ただし、これらの手法は、金融詐欺や他のニュース関連のフェイクコンテンツと大きく変わるものではありません。印パ間の緊張に関連するディープフェイクは増えていますが、使われている技術はこれまでどおりです。
フェイクを見破るコツは口回り・目の動き・声
Q 一般の人がフェイクだと見破るコツを教えてください。
目視で確認できる最大のポイントは顔、特に口元です。リップシンク(唇の動きと音声の一致)のずれがあるときは、疑ってください。
唇や口元が不自然に膨らんだり、形が歪んでいる、顔の他の部分と比べて不自然に滑らかだったり光沢があるといった兆候がないかも見てください。ズームインすると、口元にグリッド状のブロックやピクセルの不自然な境界が見えることもあります。
歯が歪んでいる、不自然にぼやけている、見えたり消えたりする場合も、AI操作コンテンツの可能性があります。肌のトーンや質感の不整合、例えば、頬と口元で肌の色や質感が一致しない場合も怪しいです。
目が不自然にキョロキョロする、焦点が合わない、不自然な瞬きをするなど、目や眉毛の動きがぎこちない場合や、映像の質感が不自然に滑らかすぎたり、ロウのような質感に見えたりする、光と影の不整合(顔の異なる部分で光の当たり方や影の出方が不自然)な場合もヒントになります。
音声も大事です。声が妙に単調に聞こえる、抑揚がない、本人の普段のしゃべり方とアクセントが違う、不自然な背景ノイズが入る、不自然な残響があるなどの場合、「音声クローン」や「AI操作コンテンツ」の可能性があります。
これらの点に細心の注意を払い、映像全体にわたって不自然な兆候がないか確認することで、ツールを使わなくても見破れることがあります。
国際的な連携は不可欠
Q ディープフェイクと戦うために、今後どんな取り組みが必要ですか。
AI技術は急速に進歩しており、ディープフェイクやAI操作コンテンツは今後も増加し、手口はより洗練されていくでしょう。こうしたコンテンツは国境を越えて拡散するため、国際的な連携が不可欠です。
一般市民のAIリテラシーやメディアリテラシーを高めることも私たちの重要な役割だと考えています。ファクトチェック業界全体が協力し、知識を共有し、市民を教育していくことが、増大するディープフェイクの脅威に対抗するための鍵です。
出典・参考
DAU."Who are we?".https://www.dau.mcaindia.in/,(閲覧日2025年6月1日).
MCA."About MCA".https://www.mcaindia.in/about-mca,(閲覧日2025年6月1日).
Pi-Labs. "Digital Deception Epidemic 2024 report on deepfake fraud’s toll on India".https://pi-labs.ai/pi-news-center/ ,よりPDFをダウンロード.(閲覧日2025年6月1日).
DAU."Assessment Reports.https://www.dau.mcaindia.in/all-reports",(閲覧日2025年6月1日).
DAU. "What are Deepfakes?".https://www.dau.mcaindia.in/,(閲覧日2025年6月1日).
DAU. "Video of Shehbaz Sharif Admitting Defeat Against India Is Fake".2025年5月14日.https://www.dau.mcaindia.in/blog/video-of-shehbaz-sharif-admitting-defeat-against-india-is-fake,(閲覧日2025年6月1日).
DAU. "Videos of Narendra Modi, Amit Shah, S.Jaishankar Conceding to Pakistan Are Deepfakes, Experts Say".2025年5月23日.https://www.dau.mcaindia.in/blog/videos-of-narendra-modi-amit-shah-s-jaishankar-conceding-to-pakistan-are-deepfakes-experts-say,(閲覧日2025年6月1日).
編集:古田大輔
判定基準などはJFCファクトチェック指針をご参照ください。
毎週、ファクトチェック情報をまとめて届けるニュースレター登録(無料)は、上のボタンから。また、QRコード(またはこのリンク)からLINEでJFCをフォローし、気になる情報を質問すると、AIが関連性の高いJFC記事をお届けします。詳しくはこちら。