「影が動かない」衆院選前に生成AIフェイクも拡散 生成AIの脅威とファクトチェックの最前線に迫る【選挙の日、そのまえに。】
1枚の写真から、AIによってたったの4時間で映画のような動画を作ることができます。我々はどんなことに気を付けて、どんな対策をしていけばいいのでしょうか。
「誰でも作れてしまう」AIフェイク動画 2025年から増加
SNSに投稿された動画。実は、完全な「フェイク動画」です。よく見ると、野田代表の頭が動いているのに、後ろの影が動いていません。
さらに、斉藤代表の頭がテロップに重なっているなど、不自然な点がいくつも。
日本ファクトチェックセンターの古田大輔編集長によると、2025年から特に生成AIを活用した画像・動画の改変やねつ造が増えているといいます。
「生成AI動画」はどのようにつくられているのか?
世界平和を歌うのはアメリカのトランプ大統領。その次には、ロシアのプーチン大統領が命の大切さを熱唱。この動画も生成AIで作られたものです。
作成したのは、AI動画クリエイターの青山大翔さん。人気のある政治家などをテーマに生成AIで動画を作成し、YouTubeで配信しています。
AI動画クリエイター 青山大翔さん
「今はちょっと勉強すれば、誰でもフェイク画像も作れてしまうのが現実」
配信を始めたのは、2025年7月。参議院選挙のネットでの盛り上がりを機に、政治家の動画に着目したといいます。
AI動画クリエイター 青山大翔さん
「政治家って、ある程度パブリシティ権がある。貶めるようなことはよくないと思っているんですけど、意思とか意見とか逆にわかりやすく解説してみたり、そういった活用であればいいんじゃないかなと」
生成AIフェイク動画 写真1枚、たった4時間で
作成方法はネットで調べて独学したという青山さん。どのように作っているのでしょうか。
撮影したのは、取材した室谷陽太記者の写真。この写真が1枚あれば、動画が作れてしまうといいます。
動画クリエイター 青山大翔さん
「『侍っぽい映画で活躍していて、まるで戦国で戦をしているかのような写真を作ってください』と、プロンプトという指示文を打ってあげる」
こうしてできた「侍」をイメージした4枚の画像に、先ほどの記者の写真を読み込ませると、30秒ほどで新しい画像が完成。
イメージ通りの画像ができるまで繰り返し、次は、その画像をもとに1カットずつ動画にするよう指示していきます。
こうした作業を繰り返し、音楽も全てAIで作成。約4時間かけてできあがりました。
政治家を事前にリサーチした上で、見た人が現実と混同しないよう、明らかなフェイク動画しか作らないという青山さん。AI動画の危険性も感じているといいます。
AI動画クリエイター 青山大翔さん
「倫理観を持っていない人が少し勉強して、嘘のフェイクニュースをどんどん流そうという目的を持てば、いくらでも流していけるので、本当に視聴者は気をつけないといけない」
AIでAIを見抜く!最新の判別技術
AIによるフェイク動画をどう見抜けばよいのでしょうか。
2つ並んだ映像。一方が実際の映像で、もう一方が生成AIで作成したフェイク動画です。一見、見分けがつきませんが…
国立情報学研究所 越前功 教授
「生成AI製であれば、赤い枠がつくようになっています。自動的に『これはリアルな顔ですよ』『これはフェイクの生成AI製の顔ですよ』と識別してくれる」
一体、どうやって判別しているのか。
実は、AIに「リアルな画像」と「生成AIで作った画像」を大量に学習させることで、AIが「リアルな画像」か「生成AIが作った画像」かを判別しているのです。
AIがフェイク動画を作り、AIがそれを見破る、そんな時代。
一方で、越前教授は「最終的には人間の判断が大切だ」と話します。
国立情報学研究所 越前功 教授
「ソーシャルメディア以外のきちんと新聞やテレビとか、ファクトチェック団体のファクトチェックの結果を見ながら、真偽をユーザー自身が検証していくというのが極めて大事」