AIによる偽情報を世界の専門家はどう検証しているか インドDAUが語るディープフェイク最前線

AIによる偽情報を世界の専門家はどう検証しているか インドDAUが語るディープフェイク最前線

実物と見紛う偽の映像や音声などをAIで作る「ディープフェイク」。世界中のファクトチェック団体が検証に取り組んでいますが、爆発的に増えている上に、技術の進歩で人間の目では見極めが難しいものも出てきています。ディープフェイクの検証に専門的に取り組んでいるインドの団体に話を聞きました。

組織を超えた協力で生まれた「ディープフェイク分析班」

インドで活動するDeepfakes Analysis Unit(ディープフェイク分析班、DAU)は2024年の総選挙をきっかけに誕生しました。ジャーナリストや技術者など、多様な人材の知見を生かして、インド国内のみならず、世界中のディープフェイクの検証をサポートしています。

元々、インドには偽/誤情報対策に取り組むファクトチェック団体やメディアなど13団体(2025年6月現在)で構成する民間組織「Misinformation Combat Alliance(誤情報対策同盟、MCA)」がありました。

DAUはMCAの関連組織として、Metaの支援を受けて誕生。現在は3名の事務局と数名の技術チーム、インド内外の研究機関と連携して、解析にあたっています。

オフィスはなく、メンバーはリモートで作業。コミュニケーションアプリに設けた専用窓口にインド中から寄せられる「ディープフェイクでは?」という通報を解析しています。

培った知見を活かして、ディープフェイクの分析など活動を広げており、検証対象もインド国内の事例に限らず、アジア、世界へと広げています。

日本ファクトチェックセンター(JFC)も、2025年4月の記事で、拡散した画像や動画が生成AIによるものか、DAUに検証してもらいました。

JFC"ミャンマー地震の被害の映像? 生成AIによるディープフェイクなど拡散【ファクトチェック】"

ミャンマー地震の被害の映像? 生成AIによるディープフェイクなど拡散【ファクトチェック】
ミャンマー中部で発生した大地震の映像とされる動画や画像が多数拡散していますが、その中には生成AIでつくられた「ディープフェイク」やミャンマーのものではない映像も多数混じっています。災害後には実際の被害と異なる映像が拡散するため、注意が必要です。 検証対象 2025年3月28日にミャンマー中部で大地震が発生し、3000人以上の犠牲者が出ている。隣国のタイや中国でも大きな揺れがあった。地震発生後、被害の様子の映像や画像が数多く拡散した。 例えば、巨大な亀裂が入った道路を上空から見た動画(例1)がある。 同じ動画や、他の動画と組み合わせて編集されたもの、動画から切り出した静止画などが、TikTokやインスタグラム、Xなど複数のプラットフォームで拡散した(例2、例3)。 また、宗教施設とみられる塔の間で建物が倒壊した様子を上空から見た動画も拡散した(例4、例5)。いずれの動画も複数のプラットフォームで拡散し、多くのインプレッションを獲得している。 検証過程 AI特有の不自然さ 検証対象の動画には、それぞれ不自然な点がある。 例1の動画は、画面左下

インドと世界のディープフェイク被害

インドを含む世界各国で大規模な選挙が相次いだ2024年は、ディープフェイクの拡散が懸念され、各国で対策も広がりました。DAUはその1つです。

2024年は、ディープフェイクよりもAIを用いない「チープフェイク」の方が拡散していました。しかし、技術の進化とともに、より巧妙なディープフェイクを誰でも作成できるようになり、その数は激増しています。

ディープフェイクは選挙だけでなく、詐欺にも用いられ、インドでは2025年の被害額が約1.2兆円に達するという予測も出ています。世界全体では約1503兆円との予測もあります(Pi-Labs Digital Deception Epidemic 2024 report on deepfake fraud’s toll on India)。

ディープフェイクにどう対抗すればよいのか。具体的な検証方法も含めて、DAU事務局の責任者、Pamposh Raina氏に話を聞きました。

AIによる偽画像の見分け方 DAUに聞く

投資・健康・政治が標的に

Q インドでは、どのような話題がディープフェイクの標的になりやすいのでしょうか。

DAUに寄せられる分析依頼の多くは、5つのカテゴリーに分けられます。

1つ目に、詐欺。著名人や実業家などが偽の投資話や金融サービスを勧めているように見せかける動画など、信用力のある人物を利用することで、詐欺の信ぴょう性を高めようとする手口です。

2つ目は、ニュース。時事問題や報道と関連した映像や音声が多く、社会の関心が高い話題に便乗して拡散します。

3つ目に、健康。偽の治療法や健康商品を紹介するように見せかけたコンテンツです。

4つ目に、政治。特に選挙期間に増える傾向があります。

5つ目に、災害。主に海外から報告されるもので、災害の映像に偽の要素が加えられているケースです。ロサンゼルスの山火事の映像や、ミャンマー地震に関するものなどです。

(※以上、DAU Assessment Reportsに多数の事例が掲載されています)。

コミュニケーションアプリに設けた通報窓口

Q 具体的に、どう検証しているのでしょうか。

一般のユーザーがディープフェイクかもしれないと思ったら、通報してもらう窓口「ティップライン」を(コミュニケーションアプリの)WhatsAppに設けています。

届いたコンテンツに関して、私を含め3名の事務局が、外部の4〜5名の技術チームと連携して分析をしています。

まず目視でAI生成の兆候がないか確認します。疑われるケースは複数の検出ツール(Hive AIHiyaDeepfake-o-meter など)でも分析します。

次に、デジタルフォレンジック(注:デジタルデータの専門的な分析)の専門家や技術者、学術機関に調査を依頼してレポートを作成します。

結果はウェブサイトで公開し、ティップライン経由で通報者にもフィードバックします。通報者には合わせて偽情報を見抜くヒントをまとめた教育動画も提供しています。海外のファクトチェック団体からの依頼で、分析に協力することもあります。

フェイススワップやリップシンク...、ディープフェイクの多様化

Q ディープフェイクは様々な種類があります。DAUはどう分類していますか。

ディープフェイクには、次のような手法があると分類しています。

フェイススワップ:他人の体に別人の顔を合成した映像
完全生成ディープフェイク:AIがゼロから作った映像や音声
ボイスクローン:実在の人物の声を模倣した音声を生成し、その人が言っていないことを言わせる
リップシンク:口の動きを改変し、実際には話していないことを言っているように見せる
音声改ざん:本物の音声と合成音声を混ぜたもの

こうした技術は日々高度になっており、現実と見分けがつかないほど精巧なケースも増えています。

ディープフェイクとチープフェイク

Q そもそも、何を「ディープフェイク」と定義しているのでしょう?

どういうコンテンツをディープフェイクと呼ぶべきかについては、専門家の間でも意見が別れます。私たちは主に「AI生成コンテンツ」、「改ざんされたコンテンツ」、「ディープフェイク」、「チープフェイク」の4つに分けています。

AI生成コンテンツ」は、AIでゼロから作られた映像や音声で、実際には起きていない出来事や人物を描いたものです。

改ざんされたコンテンツ」は、編集ソフトなどの単純な技術や、AIなどの高度な技術で、映像または音声を改変し、誤解を生むナラティブ(語り口)を作り出すものです。

チープフェイク」は、Photoshopや編集ソフトなど、比較的単純な技術で作られたコンテンツです。AIが使われたとしても限定的です。

ディープフェイク」は、「人物に関する架空の表現を含む、あらゆる合成メディア」と定義しています。生きているか亡くなっているかを問わず、人物の行動や発言を偽って見せるコンテンツが含まれます。

(以上、DAU 「What are Deepfakes?」が参考になります)

急増する「リップシンク」「声色操作」

Q 最近特に増えているのは、どんな種類ですか。

ゼロからすべてをAIで生成した高度なディープフェイクは、数年前に予想されていたほど急速には増えていません。

明らかに増えているのは「リップシンク」や「声色操作」のような、既存のコンテンツをAIで改変する「AI操作コンテンツ」です。制作コストが比較的安いからでしょう。DAUが分析するコンテンツの多くも、「AI操作コンテンツ」です。

検証困難な「ボイスクローン」

Q 見破るのが最も難しいのは、どんな種類ですか?

「ボイスクローン」です。見破るのが難しい最大の理由は、視覚的な手がかりがないことです。動画であれば、リップシンク(唇の動きと音声の一致)のずれや、顔の不自然さなどから偽物を見破りやすいですが、音声だけの場合、そうした手がかりがありません。

また、ボイスクローンの技術は日々進歩しており、検出が難しくなっています。初期のボイスクローンは、単調でイントネーションに欠け、話し方が不自然で機械的だという特徴が見られました。しかし最近は、意図的に背景ノイズを挿入して見破りにくくしているものもあります。

通常、音声クローンには、自然な会話に含まれる「えーと」や「あー」などの言い淀みは、含まれませんが、技術の進歩により、言い淀みも含めてどんどん見破りにくくなる可能性があります。

検出ツールの限界

Q 専門のツールでも、見破れないのでしょうか。

検出ツールにも限界があります。私たちは日々、様々な検出ツールを使っていますが、どのような教師データ(AIが正解を学習するための元データ)を使って開発したかによって、性能が異なります。

元になったデータが特定の言語やアクセントに偏っていたり、背景ノイズや音楽が含まれたりする音声や、圧縮率の高い低品質な音声の場合、分析結果が信頼できないことがあります。

デジタル・フォレンジック(注:デジタルデータの専門的な分析)の専門家による分析も不可欠ですが、それでも100%確実に見破ることは難しいです。

印パ緊張で拡散する政治家が標的のディープフェイク

Q 2025年4月、カシミール地方でのテロを機にインドとパキスタンの緊張が高まっています。拡散したディープフェイクに変化はありましたか?

この件に関連する通報がいくつか寄せられました。DAUでは、パキスタンのシャリフ首相、インドのモディ首相、ジャイシャンカル外相、シャー内相に関するディープフェイクや操作されたメディアを分析し、様々なレポートを公開しています。

例えば、シャリフ氏の動画は映像に合成音声を重ねた「改ざんメディア」と判定しました。

一方、モディ氏らの動画は、音声と映像の両方がAIによって生成または改ざんされたディープフェイクだと判明しています。特に、口元だけを改変するリップシンクの痕跡が専門家によって指摘されました。

ただし、これらの手法は、金融詐欺や他のニュース関連のフェイクコンテンツと大きく変わるものではありません。印パ間の緊張に関連するディープフェイクは増えていますが、使われている技術はこれまでどおりです。

フェイクを見破るコツは口回り・目の動き・声

Q 一般の人がフェイクだと見破るコツを教えてください

目視で確認できる最大のポイントは顔、特に口元です。リップシンク(唇の動きと音声の一致)のずれがあるときは、疑ってください。

唇や口元が不自然に膨らんだり、形が歪んでいる、顔の他の部分と比べて不自然に滑らかだったり光沢があるといった兆候がないかも見てください。ズームインすると、口元にグリッド状のブロックやピクセルの不自然な境界が見えることもあります。

歯が歪んでいる、不自然にぼやけている、見えたり消えたりする場合も、AI操作コンテンツの可能性があります。肌のトーンや質感の不整合、例えば、頬と口元で肌の色や質感が一致しない場合も怪しいです。

目が不自然にキョロキョロする、焦点が合わない、不自然な瞬きをするなど、目や眉毛の動きがぎこちない場合や、映像の質感が不自然に滑らかすぎたり、ロウのような質感に見えたりする、光と影の不整合(顔の異なる部分で光の当たり方や影の出方が不自然)な場合もヒントになります。

音声も大事です。声が妙に単調に聞こえる、抑揚がない、本人の普段のしゃべり方とアクセントが違う、不自然な背景ノイズが入る、不自然な残響があるなどの場合、「音声クローン」や「AI操作コンテンツ」の可能性があります。

これらの点に細心の注意を払い、映像全体にわたって不自然な兆候がないか確認することで、ツールを使わなくても見破れることがあります。

国際的な連携は不可欠

Q ディープフェイクと戦うために、今後どんな取り組みが必要ですか。

AI技術は急速に進歩しており、ディープフェイクやAI操作コンテンツは今後も増加し、手口はより洗練されていくでしょう。こうしたコンテンツは国境を越えて拡散するため、国際的な連携が不可欠です。

一般市民のAIリテラシーやメディアリテラシーを高めることも私たちの重要な役割だと考えています。ファクトチェック業界全体が協力し、知識を共有し、市民を教育していくことが、増大するディープフェイクの脅威に対抗するための鍵です。

出典・参考

DAU."Who are we?".https://www.dau.mcaindia.in/,(閲覧日2025年6月1日).
MCA."About MCA".https://www.mcaindia.in/about-mca,(閲覧日2025年6月1日).
Pi-Labs. "Digital Deception Epidemic 2024 report on deepfake fraud’s toll on India".https://pi-labs.ai/pi-news-center/ ,よりPDFをダウンロード.(閲覧日2025年6月1日).
DAU."Assessment Reports.https://www.dau.mcaindia.in/all-reports",(閲覧日2025年6月1日).
DAU. "What are Deepfakes?".https://www.dau.mcaindia.in/,(閲覧日2025年6月1日).
DAU. "Video of Shehbaz Sharif Admitting Defeat Against India Is Fake".2025年5月14日.https://www.dau.mcaindia.in/blog/video-of-shehbaz-sharif-admitting-defeat-against-india-is-fake,(閲覧日2025年6月1日).
DAU. "Videos of Narendra Modi, Amit Shah, S.Jaishankar Conceding to Pakistan Are Deepfakes, Experts Say".2025年5月23日.https://www.dau.mcaindia.in/blog/videos-of-narendra-modi-amit-shah-s-jaishankar-conceding-to-pakistan-are-deepfakes-experts-say,(閲覧日2025年6月1日).

編集:古田大輔


判定基準などはJFCファクトチェック指針をご参照ください。

毎週、ファクトチェック情報をまとめて届けるニュースレター登録(無料)は、上のボタンから。また、QRコード(またはこのリンク)からLINEでJFCをフォローし、気になる情報を質問すると、AIが関連性の高いJFC記事をお届けします。詳しくはこちら

もっと見る

通勤手当に課税? あらたに課税される予定はない【ファクトチェック】

通勤手当に課税? あらたに課税される予定はない【ファクトチェック】

政府が通勤手当に課税するという情報が拡散しましたが、誤りです。通勤手当はすでに課税対象ですが、15万円の非課税限度枠があるため、多くの人は対象になりません。また、2025年6月4日現在、政府があらたに課税を検討しているという事実はありません。 検証対象 2025年5月27日、「通勤手当に課税」という投稿がXで拡散した。2025年6月5日現在、投稿は1.6万回以上リポストされ、表示は614万回を超えている。 投稿には「通勤時間も労働時間に入れてくれれば反対しない」や「通勤費が所得な訳ねーだろ」などのコメントのほか「通勤手当への課税を検討している事実はありません」という指摘もある。 同様の情報はYouTubeやTikTokでも拡散した(例1、例2、例3)。 検証過程 拡散した投稿はまとめサイトの記事  拡散した投稿には、まとめサイトJapanNewsNaviの「【石破政権】通勤手当への課税について説明『通勤手当は労働の対象』『差が出るのは不公平』→意味不明すぎて大炎上!」という記事のリンクがついている。 記事には、2025年3月18日に参議院予算委

By 根津 綾子
ひろゆき氏、生放送中のとんでも発言で日銀が提訴? 偽記事を使った詐欺【ファクトチェック】

ひろゆき氏、生放送中のとんでも発言で日銀が提訴? 偽記事を使った詐欺【ファクトチェック】

「ひろゆき氏が生放送中にとんでもない発言をして日銀が提訴した」という記事が、XやYouTubeで拡散していますが、捏造された内容で、誤りです。記事中のリンクは投資を促す偽サイトにつながるため注意が必要です。 検証対象 2025年5月ごろから「(実業家の)西村博之氏が生放送中にとんでもない発言をした」という記事がXやYouTubeのプロモーション(広告)機能で拡散した(例1、例2)。 拡散した投稿の中には、毎日新聞のロゴを用いているものもあるが、リンク先は毎日新聞とは無関係だ。 いずれの投稿も、ひろゆき氏が生放送中に失言をして日銀に訴えられたという内容になっている。 検証過程 リンク先は偽のニュースサイト 投稿に添付されたリンクをクリックすると、「日本銀行が生放送中の発言を理由に西村 博之氏を提訴」という記事が表示される。 記事にはNTTドコモが運営する「gooニュース」のロゴがあり、記事提供元として「読売新聞オンライン」のロゴもある。だが、実際のgooニュースとはURLが異なり、無関係のサイトだ。 記事の内容は、ひろゆき氏と政治評論家の寺島実

By 木山竣策
新聞協会有志社によるファクトチェックにJFCが協力

新聞協会有志社によるファクトチェックにJFCが協力

日本ファクトチェックセンター(運営:一般社団法人セーファーインターネット協会、以下JFC)は、この度、佐賀新聞社、時事通信社、日本テレビ放送網、読売新聞社の4社が実施する「選挙に関する情報を対象とした共同のファクトチェック」に協力することとなりました。 設立から3年弱で約700本の検証記事を公開してきた経験を活かし、4社のファクトチェックに関して検証方法や判定方法などの助言をさせていただきます。ファクトチェックの担い手の多様化に貢献できますことを、大変光栄に思っています。

By 日本ファクトチェックセンター(JFC)
小泉進次郎氏の祖父は横須賀のヤクザで在日朝鮮人? 画像も経歴も無関係【ファクトチェック】

小泉進次郎氏の祖父は横須賀のヤクザで在日朝鮮人? 画像も経歴も無関係【ファクトチェック】

「小泉進次郎氏の祖父は横須賀のヤクザで在日朝鮮人」という情報が、刺青を入れた男性の画像と共に拡散しましたが、誤りです。画像も経歴も小泉家と関係のない人物です。 検証対象 2025年5月28日、「小泉進次郎のお爺さんは『刺青のマタちゃん』と呼ばれていた横須賀のヤクザで在日朝鮮人でした」という投稿が拡散した。投稿には、上半身が裸で刺青を入れた男性に「小泉又次郎」と書いた画像が添付されている。 2025年6月3日現在、この投稿は1万件以上リポストされ、表示回数は995万回を超える。投稿について「小泉一族は売国奴」「まじか」というコメントの一方で、「デマはやめとき」という指摘もある。 検証過程 刺青の男性は彫師「彫千代」 拡散した男性の写真をGoogleレンズで検索すると、Wikimedia Commonsの写真と一致する。説明には「彫師『彫千代』のものと考えられている写真」と記されている。また、元の画像には「小泉又次郎」の文字はない。 この写真は長崎大学附属図書館 幕末・明治期古写真データベースに所蔵され、撮影者は鈴木真一(二代目)と明記されている。

By 木山竣策

ファクトチェック講座

JFCファクトチェック講師養成講座 申込はこちら

JFCファクトチェック講師養成講座 申込はこちら

日本ファクトチェックセンター(JFC)は、ファクトチェックやメディア情報リテラシーに関する講師養成講座を月に1度開催しています。講座はオンラインで90分間。修了者には認定バッジと教室や職場などで利用可能な教材を提供します。 次回の開講は6月21日(土)午後2時~3時半で、お申し込みはこちら。 https://jfckousiyousei0621.peatix.com 受講条件はファクトチェッカー認定試験に合格していること。講師養成講座は1回の受講で修了となります。 受講生には教材を提供 デマや不確かな情報が蔓延する中で、自衛策が求められています。「気をつけて」というだけでは、対策になりません。最初から騙されたい人はいません。誰だって気をつけているのに、誤った情報を信じてしまうところに問題があります。 JFCが国際大学グロコムと協力して実施した「2万人調査」では実に51.5%の人が誤った情報を「正しい」と答えました。一般に思われているよりも、人は騙されやすいという事実は、様々な調査で裏打ちされています。 JFCではこれらの調査をもとに、具体的にどのよう

By 古田大輔(Daisuke Furuta)
理論から実践まで学べるJFCファクトチェック講座 20本の動画と記事を一挙紹介

理論から実践まで学べるJFCファクトチェック講座 20本の動画と記事を一挙紹介

日本ファクトチェックセンター(JFC)は、YouTubeで学ぶ「JFCファクトチェック講座」を公開しました。誰でも無料で視聴可能で、広がる偽・誤情報に対して自分で実践できるファクトチェックやメディアリテラシーの知識を学ぶことができます。 理論編と実践編の中身 理論編では、偽・誤情報の日本での影響を調べた2万人調査の紹介や、間違った情報を信じてしまう背景にある人間のバイアス、大規模に拡散するSNSアルゴリズムなどを解説しています。 実践編では、画像や動画や生成AIなど、偽・誤情報をどのように検証したら良いかをJFCが検証してきた事例から具体的に学びます。 JFCファクトチェッカー認定試験を開始 2024年7月29日から、これらの内容について習熟度を確認するJFCファクトチェッカー認定試験を開始します。誰でもいつでも受験可能です(2024年度中は受験料1000円、2025年度から2000円)。 合格者には様々な技能をデジタル証明するオープンバッジ・ネットワークを活用して、JFCファクトチェッカーの認定証を発行します。 JFCファクトチェッカー認定試験

By 古田大輔(Daisuke Furuta)
JFCファクトチェッカー認定試験  教材と申し込みはこちら

JFCファクトチェッカー認定試験  教材と申し込みはこちら

日本ファクトチェックセンター(JFC)はJFCファクトチェッカー認定試験を開始します。YouTubeで公開しているファクトチェック講座から出題し、合格者に認定証を授与します。 拡散する偽・誤情報から身を守るために 偽・誤情報の拡散は増える一方で、皆さんが日常的に使用しているSNSや動画プラットフォームに蔓延しています。偽広告や偽サイトへのリンクなどによる詐欺被害も広がっています。 JFCが国際大学グロコムと実施した2万人を対象とする調査では、実際に拡散した偽・誤情報を51.5%の割合で「正しいと思う」と答え、「誤っている」と気づけたのは14.5%でした。 自分が目にする情報に大量に間違っているものがある。そして、誰もが持つバイアスによって、それが自分の感覚に近ければ「正しい」と受け取る傾向がある。インターネットはその傾向を増幅する。 だからこそ、ファクトチェックやメディアリテラシーに関する知識が誰にとっても必須です。 JFCファクトチェック講座と認定試験 JFCファクトチェック講座(YouTube, 記事)は、2万人調査を元に偽・誤情報の拡散経路や

By 日本ファクトチェックセンター(JFC)