韓国のネイバーとカカオは、生成人工知能(AI)が作ったイメージにラベルを付ける技術を開発している。国内外のプラットフォーム企業はディープフェイク(Deep fake)対応協議体も作った。AI技術を活用したフェイクニュースの拡散を防ぐためだ。
カカオのAI専門子会社カカオブレーンは、イメージ生成AIモデル「カロ」に非可視性ウォーターマーク(透かし)技術導入を検討している。
カロが生成したイメージにAIが作ったというラベルを付けることだ。一般の利用者にはウォーターマークは露出しないが、技術的にはカロが作ったイメージであることを確認できるようにする。
カカオ関係者は「正確な公開時期は決まっていないが、できるだけ早く技術を公開できるよう努力している」と話した。
ネイバーもやはり、ハイパークローバーXなどが作った生成AIイメージにウォーターマークを付ける案を検討している。さらに、ディープフェイク映像も判別できる技術を研究している。
ネイバー関係者は「まだハイパークローバーXを利用したイメージ生成技術は完成していないが、中長期的には生成AIが作ったイメージまたは映像を識別する技術を開発している」と説明した。
今年、世界76カ国で各種選挙が実施されるなか、AIが民主主義の根幹を揺るがす恐れがあるという懸念が出ている。
世界経済フォーラム(WEF・ダボスフォーラム)が発行した「グローバルリスクレポート2024」で、今年、世界が直面する危険の一つとして「AIで生成したフェイク情報」を挙げた。
グローバルビッグテック企業はAIが作り出したフェイクニュースに積極的に対応する方針だ。今月16日(現地時間)、オープンAI・グーグル・メタなど20社のグローバルビッグテック企業は、ドイツでのミュンヘン安保会議(MSC)で有権者が騙されるコンテンツを感知し、ラベルを貼るなどの措置を自発的に取ることで合意した。
韓国国内でも総選挙を控え、動きが活発になっている。ネイバー、カカオ、SKコミュニケーションズ、グーグルコリアなど韓国インターネット企業協会の会員会社はこのほど、ディープフェイクに対応する自律協議体を作った。
(c)news1