top of page

フェイク画像拡散時代

  • tokuhata
  • 2022年9月29日
  • 読了時間: 2分

更新日:2023年11月12日

 9月26日にTwitter上に投稿された画像が物議をかもしています。「ドローン撮影された静岡県の水害」と称する写真ですが画像生成AIで作成したものであることが分かりました。一見しただけでは合成とは思えない出来栄えです。投降後しばらくして投稿者自身が画像生成AIで作成したことを認めました。松野官房長官が「今後は事実に基づかない情報に対して注意喚起していく」旨コメントするほど問題視されることとなりました。すでに情報が拡散しているのでここであらためて参照することはしませんがAI画像の問題を再認識しました。


 一般の人が利用可能な画像生成AIサービスはすでにいくつか存在しています。一方で、AIの生成物に関する法的整備、ルール、モラルの部分は十分に準備ができているとは言えません。その昔コンピュータウィルスが出現したときと類似の展開になりそうです。悪意を持った人たちによりフェイク画像が大量に拡散する可能性があります。現在の法律ではAIに描かせた画像の所有権はAIを利用したユーザにあるとされています。カメラの進歩により、ニュースなどの報道番組では視聴者提供の画像が頻繁に使われます。視聴者が提供する写真が本物である保証はありません。SNSやブログにも日々大量の写真が投稿されます。法律の整備と並行して「フェイク画像判定ソフト」のような仕組みが必要になると思われます。


 あくまでテスト目的で私自身もフェイクニュース画像生成を試してみた結果が以下です。ちょっと見ただけでは合成かどうかわからないですね。画像生成AI「Stable Diffusion」に指示文を入力して結果を得るまでわずか30秒です。


***サンプルフェイク画像!ウクライナ原発事故***



 
 
 

Comentarios


Ya no es posible comentar esta entrada. Contacta al propietario del sitio para obtener más información.
bottom of page