
「ディープフェイク動画をはじめとする偽情報は、国民の正しい選択を妨げる民主主義の敵だ」
韓国のある大統領選の予備候補の選挙対策委員会は14日、記者会見を開き、「該当候補が妻に暴言を吐いているように見えるディープフェイク(AIを悪用した合成コンテンツ)動画の流布が試みられているとの情報提供を受けた」と発表し、強い懸念を示した。
選対側は「過去に公開された映像の音声を別の映像にディープフェイク技術で合成した。虚偽・捏造情報の拡散が確認され次第、迅速かつ厳正に対処し、法的責任を最後まで追及する」と警告した。
ディープフェイクによる偽映像や写真は、このように選挙戦における“ブラックプロパガンダ”に利用される恐れが大きい。しかも一度拡散されると、その内容を訂正するのが非常に難しいという点も深刻な問題とされている。
中央大学コミュニケーション大学院のアン・ジョンサン兼任教授は「総選挙と違って大統領選は全国規模であり、候補者数も限られているためリスクが非常に大きい」と指摘したうえで「ディープフェイクを発見して処罰に至るまでに、選挙自体がすでに終わってしまう可能性もある」と警鐘を鳴らした。
また一部では、AI生成物に透かし(ウォーターマーク)表示を義務付ける「AI基本法(人工知能の発展と信頼基盤の構築に関する基本法)」が来年1月から施行予定であることを挙げ、現時点での対応の限界を懸念する声も出ている。
ただ、公職選挙法では選挙日90日前から、選挙運動を目的とするディープフェイク映像の制作および拡散を禁止しており、大統領選まで50日を切った現在、この法律の適用には問題がないとされる。今回はユン・ソンニョル(尹錫悦)氏の大統領職罷免によって早期選挙が実施される特例状況にある。
選挙管理を担う中央選挙管理委員会や警察も、ディープフェイク関連の選挙犯罪に対する取り締まりを強化する。アン教授は「選挙とは一種のフレーム戦争だ。各政党や候補者陣営はそれぞれ専任のタスクフォース(TF)や対策班を設置するだろう」と分析した。
さらに、生成AIの技術が急速に進化したことで、ディープフェイクの制作は非常に簡単かつ短時間で可能になっている一方、真偽を検証するには膨大な時間と労力が必要であることも、今後の社会的議論が必要な課題として浮上している。
(c)news1