18歳未満の画像を生成人工知能(AI)などで加工したわいせつ画像「性的ディープフェイク」について、1~3月に全国の警察が把握した事案は55件(前年同期比32件増)だったことが15日、分かった。東京都内で開かれた「社会安全フォーラム」で、警察庁の担当者が明らかにした。
警察庁によると、同級生など面識がある人同士のトラブル関連が多かった。被害者は中高生が約9割を占め、加害者の最多は中学生の36件だった。男性教諭が、勤務する高校の女子生徒の写真を下着姿に加工したケースや、男子高校生が交流サイト(SNS)で知り合った人物に顔写真を加工され、「拡散する」と電子マネーを要求された事案もあった。