
「映像は今後もさらに多く生成される。防ぐ方法は事実上ない」
韓国・高麗大AI研究所のチェ・ビョンホ教授は、AI(人工知能)で作られた偽映像の拡散について「人間が防ぐ方法はない」として、こう話した。
かつて、いたずらめいた流言飛語の域にとどまっていたフェイクニュースは、AI技術と結びつき、精巧な映像や音声の形へ進化した。さらにSNSの拡散力を背景に、韓国内だけでなく世界中へ広がっている。
専門家らは、こうした状況でフェイクニュースを単に処罰するだけでは対応に限界があると口をそろえる。AI技術を基盤にした検知技術、プラットフォーム側の遮断システム、市民のAIリテラシー向上を同時に進める必要があると強調する。
専門家は、最近フェイクニュースやディープフェイク映像が急速に広がっている最大の要因として、AI技術の大衆化を挙げる。
チェ・ビョンホ教授は「生産コストが次第にゼロへ近づいており、事実上、誰でも虚偽映像を簡単に作れる状況になった。今後は人ではなくAIが、1秒当たり無数の虚偽映像を生み出すようになる」と指摘した。
さらに「ディープフェイク検知技術は発展しているが、それを回避する技術も同時に高度化する『矛と盾』の構図が続いている。専門家でさえ判別は容易ではなく、一般の人が肉眼で見分けるのは事実上不可能に近い」と説明した。
そのうえで、「今や人間が肉眼で真偽を判断するのは難しい水準だ。結局、AIが作り、AIが検知する方式へ進むしかない」と診断した。
フェイクニュースの作成が、一つの収益モデルとして定着しつつあるとの分析もある。
営利目的のダークウェブ市場が拡大しており、犯罪集団がAIハッカー、ダークウェブ、心理学者らを動員し、構造的、組織的に動く形になっているという。すでに巨額の収益を生み出しているため、停止する可能性は高くないとの見方が専門家の間で出ている。
京畿大メディア映像学科のホン・ソンチョル教授は「フェイクニュースで再生回数を伸ばして利益を得ようとしたり、自分の名前を知らせようとしたりする人がいる」とし、「予期しない社会的混乱を招き、公権力をからかうような現象が起きており、望ましくない」と述べた。
チェ・ビョンホ教授は「現実的には、AIを活用した検知システムとプラットフォーム側の遮断、その後の人間による検証を並行する方式が、現時点で最も実効性のある対応だ」としつつ、「虚偽情報の流通はすでに収益構造を備えた組織的な形に拡大しており、問題は今後さらに深刻化する可能性が大きい」と見通した。
ユーチューブやSNSなどのプラットフォームが虚偽情報拡散の主要な通路となる中、フェイクニュースの作成者は最も注目されている話題を選んで虚偽情報を作るため、広がる速度も速い。
ホン・ソンチョル教授は、特に情報の空白が大きいほど虚偽情報が入り込みやすいと分析する。「人々が知りたがっている事案について正確な情報が十分に提供されない場合、その隙を突いて虚偽情報が急速に広がる傾向がある」と説明した。
プラットフォームがフェイクニュースの起爆剤となっている以上、事業者側の対応が必要だとの意見も示した。
ホン・ソンチョル教授は「プラットフォーム事業者は、フェイクニュースを選別するため、より多くの人材を採用し、システムを開発する努力を傾けなければならない」とし、「また、フェイクニュースを通じて不当な利益が生じたなら、そのプラットフォームを運営する人々に利益を与えてはならない」と述べた。
一方、政府や警察による処罰強化については、「処罰が万能ではない」として慎重な見方もある。
ホン・ソンチョル教授は「社会的混乱を引き起こしたり、自分の集団を利するなど、フェイクニュースを広める意図が明確な人は処罰できる。しかし、面白半分でした部分について過度に処罰するのは問題がある」と話した。
虚偽情報流布に関する法律相談も増えている。
最近はSNSやAI技術を活用した虚偽情報流布に関する法律相談が体感上大きく増え、名誉毀損や情報通信網法違反などで刑事処罰につながる事例も増加傾向にある。
ただ、海外プラットフォームの場合は捜査協力が容易ではない。性的な内容を含むディープフェイクと異なり、一般の虚偽映像やフェイクニュースでは処罰水準や民事上の慰謝料が大きくない場合が多く、制裁が十分とは言いにくい状況だ。【news1 ソ・ポミ記者、イ・ジェヒョン記者】
(c)news1