画像生成AIによって生成されたフェイク画像が、Twitterで注目されていました。リアルなフェイク画像を簡単に作れるようになってしまったので、インターネット上で触れる情報には注意が必要ですね。
画像生成AIでリアルなフェイク画像が作れる時代に
「Midjourney」や「Stable Diffusion」に代表される画像生成AIが注目されていますが、これを利用した災害のデマ情報がTwitterで拡散されるという事案が発生しました。
問題となっていたツイートは、3枚の画像とともに「ドローン撮影された静岡県の水害。マジで悲惨すぎる…」というメッセージで投稿されたもの。
ドローンで撮影された静岡県の水害。
— くろん (@kuron_nano) September 25, 2022
マジで悲惨すぎる... pic.twitter.com/W69USpmwGG
パッと見ただけでは、本物の写真か、偽物の写真かはわかりにくいですが、よく見ると不自然な点がいくつかあります。
「ドローンで撮影された静岡県の水害」とする画像、色々不自然なので偽画像と思われます pic.twitter.com/0YjuZweDqR
— ネット上の情報検証まとめ (@jishin_dema) September 26, 2022
その後、投稿主は投稿した写真は画像生成AI「Stable Diffusion」で生成したものだと説明し、謝罪をしています。誤解される画像を投稿した理由は「大した目的はない。そもそも安易にこれが広まるとは想定していなかった」などと説明。騙されたユーザーに対しては「ばーか!www ざまあwwwww」「お前らのネットリテラシーの無さが露呈しましたね!www」などとも投稿しています。
この度の騒動について、いくつか聞かれたことについて回答いたします。
— くろん (@kuron_nano) September 26, 2022
誠に申し訳ございませんでした。
また、この投稿においてはリプライの制限をなくします。 pic.twitter.com/Eqf3Kqqs2r
問題の投稿をしたユーザーにはしっかり反省していただきたいものですが、今回、画像生成AIによるフェイク画像が注目されたことで、いつかは悪意を持って画像生成AIで生成したリアルなフェイク画像を投稿するユーザーが現れるでしょう。
簡単にリアルなフェイク画像を生成できる、すごい世の中になったものだと驚くと同時に、インターネット上に投稿されるフェイクニュースは、今後はリアルな画像が添付されるようになることが想像できます。
試しに「Stable Diffusion」で、投稿主と同じように「flood damage, Shizuoka」の文字列でフェイク画像を生成してみました。
「many houses in flood, japan, realistic, photorealistic, 8k」という文字列で生成した画像もTwitterで注目されていました。
ちな呪文は "many houses in flood, japan, realistic, photorealistic, 8k"、同じ呪文で4回生成
— (Ǝ)ɐsıɥıɥso⅄ ouɐɓnS (@koshian) September 26, 2022
同じ文字列で自分でも生成してみたところ、水没した街になりました。
今後、画像生成AIが進化していくとして、よりフェイク画像を見抜くことは難しくなる可能性も考えられます。インターネット上の情報との向き合い方のコツとして、インターネットメディア協会理事/白鴎大学特任教授の下村健一氏は「ソウカナ」を提唱しています。