女子陸上選手の性的加工画像、約800人に共有される 被害500人超

2026/04/24 16:35 

  • このエントリーをはてなブックマークに追加

 未成年を含む多数の女子陸上選手が、生成人工知能(AI)を悪用して写真に性的な加工をされる「性的ディープフェイク」の被害に遭い、その画像や動画が、オンラインコミュニティー上に大量に投稿されていることが明らかになった。一連の被害者は延べ500人以上とみられ、大会関係者側には動揺が広がっている。

 画像や動画が見つかったのは、ユーザー数も多い、ある人気チャットアプリ内。中学生や高校生、大学生の選手の競技中や表彰式などの写真が、生成AIを用いて裸や性的行為をしているように見える加工が施され、投稿されている。

 コミュニティーの参加者は4月24日時点で800人近くに上っている。問題の画像は確認しただけでも350枚以上あった。【町野幸】

毎日新聞

社会

社会一覧>