
人工知能(AI)の普及に伴い、悪性コードの作成や隠蔽などサイバーセキュリティ上の脅威が増加していることを受け、韓国政府がリスクの事前遮断に向けた対策を進めている。政策研究や指針の整備を通じ、AI関連のサイバーリスクへの対応強化を図る方針だ。
政府の電子調達システムによると、韓国インターネット振興院(KISA)は今月初め、「AIセキュリティ脅威分析および対応策」に関する政策研究事業を発注した。提案書では、AIセキュリティ脅威の分析や政策研究、各国の動向調査、報告書作成などを求めている。
特に日本や欧州連合(EU)、米国、英国などの政策や技術を分析し、韓国の方向性を導くよう求めた。KISAは「AIの拡散により新たな脅威が増えている」とし、「国家レベルでの先制的な対応戦略が必要だ」と説明している。
AIによるサイバーリスクは世界的な課題となっている。世界経済フォーラムの報告書では、回答者の87%が「AI関連の脆弱性」を最も急速に拡大するリスクと指摘。AIは攻撃と防御の双方の能力を変化させ、サイバー分野の競争激化を招いていると分析された。
英国国家サイバーセキュリティセンターも、AIがマルウェア開発の障壁を下げ、攻撃の頻度と影響が短期間で拡大する可能性を警告している。
こうした中、韓国はAIセキュリティ指針も整備した。国家情報院はオーストラリアや米国など7カ国の機関と共同で、「AI供給網リスクと緩和策」を公表。AIシステムの開発から提供までの全工程において、設計段階からセキュリティを組み込む必要性を強調した。
さらに、信頼できるデータの使用や偏りによる誤判断の防止、機械学習モデルへの悪意あるコードの挿入防止なども提言している。
専門家は、AIの普及でサイバー攻撃の高度化が進む可能性があるとし、「AI開発と同時にセキュリティ体制を構築することが重要だ」と指摘している。
(c)news1