
未成年の女性が多い地下アイドルの顔写真を、裸の画像や動画に合成するディープフェイクが韓国のオンラインコミュニティで広まり、警察が対応を始めた。
問題が指摘されたのは、オンラインコミュニティ「Dcinside」内の「国内地下アイドルギャラリー」。ここではAIモデル「グロック」を使って地下アイドルの顔を性的な画像に合成する命令文や生成画像が共有されていた。名前や身体の部位を挙げて画像共有を求める投稿や、特定の地下アイドルを侮辱するような書き込みも目立った。
地下アイドルは主に小規模ライブやイベントで活動し、多くが法的保護を受けにくい立場にある。未成年も多く、実際に「未成年で合成に成功した」とする投稿もあった。TikTokerを対象にした類似の画像も確認された。
1月22日に施行されたAI基本法では、事業者にAI活用の告知義務を課すにとどまり、ディープフェイク自体の規制は盛り込まれていない。このため、制度の見直しを求める声が強まっている。
警察は現在、問題投稿の削除を要請済みで、被害申告があれば捜査を本格化させる。
(c)news1

