
生成AIで作られた「偽の医師」や著名人のディープフェイクを使った広告が急増し、消費者を誤認させるケースが深刻化している。特に医療・健康分野で被害拡大が懸念されている。
最近では、白衣姿の男性が歯科インプラントを勧める動画が拡散したが、実際にはAIで生成された人物だった。自然な口の動きや身ぶりが加えられ、本物の専門家と見分けがつきにくいという。
さらに、イ・グクジョン院長をかたる偽動画も問題となった。「心停止時は強くせきをすればよい」などの誤った救命法を紹介する動画が出回り、再生回数は60万回以上に達した。
しかし医療界は、このような方法は適切ではなく、むしろ救命の機会を遅らせる恐れがあると警告している。正しい対応は速やかな通報だとし、問題の動画は精巧な音声模倣により本人の発信と誤認されるケースもあった。
こうした状況を受け、政府は対策強化に乗り出した。公正取引委員会は、AIやディープフェイクで作成した人物を広告に使う場合、「仮想人物」であることの明示を義務付ける方針を示している。
表示方法も具体化される見通しで、文章中心の媒体では冒頭に「AI生成の人物を含む」と明記し、動画では画面上に常時表示することが求められる。
一方、消費者自身が見抜く力も重要とされる。専門家は▽手や指の形が不自然(本数や関節の違和感)▽肌が不自然に滑らかで質感が乏しい▽文字や数字が崩れて読めない▽光や影の向きが一致しない――のような特徴に注意するよう呼びかけている。
動画では、口の動きと音声のわずかなズレや、感情の起伏が乏しい単調な話し方、まばたきの不自然な繰り返しなども見分けの手がかりになる。
また、出典確認も欠かせない。公式サイトに同じ内容があるかを確認する、過度に利益を強調する内容や外部リンク誘導に警戒するなど、複数の情報源で検証することが被害防止につながる。
(c)news1