
企業がリモート面接を活用する中、人工知能(AI)技術を悪用して「偽の顔」で就職活動をするケースが急増し、実際に採用される事例も報告されている。韓国国内ではこうした「ディープフェイク就活」に対する警戒感が高まっている。
米メディアCNBCによると、米国ではAI技術で偽の顔や声で就職面接に臨む求職者が急増している。リモートワークの普及で、対面での本人確認が難しくなったことが背景にある。
音声認証技術のスタートアップ「PinDrop Security」はエンジニア職の面接中、受け答えと顔の表情が微妙に一致していないことに気づいた。面接を受けていた「イヴァンX」と名乗る人物はディープフェイク技術と生成AIツールを使った詐欺師だった。
サイバーセキュリティ企業KnowBe4も昨年、北朝鮮出身のソフトウェアエンジニアを誤って雇用していたと公表。その人物はAIで加工した写真と盗まれた身分証を使い、複数回の面接と身元確認を通過していた。
この脅威に対応するため、企業側は採用段階での本人確認を強化。検証サービスやPinDropが開発した独自のビデオ認証プログラムなどが導入されている。ただし、ディープフェイク技術は日々向上しているため、これらの対策でも完全に防ぐのは難しいと指摘されている。
韓国でもAIによるなりすましに対抗するため、ディープフェイク検出ソリューションの開発が進んでいる。
デジタル犯罪対応企業「RAVA WAVE」は、背景やポーズ、構図まで含めて不正を探知できる仕組みを開発。生成AI専門企業「DeepBrain AI」もYouTubeやTikTok、X(旧Twitter)などを対象に自動検索可能なディープフェイク検出サービスを提供している。
(c)NEWSIS