2026 年 3月 13日 (金)
ホーム政治戦争下で揺らぐAI倫理

戦争下で揺らぐAI倫理 [韓国記者コラム]

(c)Reuters/news1

人工知能(AI)の倫理原則が、国家安全保障や戦争の前で揺らいでいるとの懸念が広がっている。米政府の圧力を受け、AI企業アンソロピックのダリオ・アモデイ最高経営責任者(CEO)が、政府批判について謝罪する事態となった。

海外メディアなどによると、アモデイCEOは5日(現地時間)、自らがドナルド・トランプ大統領と米国防総省を批判したことについて公式に謝罪した。

問題となったのは、アモデイCEOの内部メモが流出したことだった。メモでは、トランプ政権が政府のAI政策に反対した企業に報復していると主張し、国防総省と契約を結んだAI企業オープンAIにも批判的な言及があったとされる。

アモデイCEOは声明で「トランプ大統領がアンソロピックを連邦システムから排除する可能性に言及し、さらに政府が当社をサプライチェーン上のリスク企業に指定するなど厳しい状況の中で感情的な表現を使ってしまった」と説明した。

そのうえで「アンソロピックは国防総省や国家安全保障機関が必要とする場合、AIモデルとエンジニアリング支援を提供する」とし、「国防総省とは違いよりも共通点の方が多い」と述べた。

◇AI倫理と国家安全保障の衝突

アンソロピックはこれまで、AI安全性を重視する企業として「責任ある拡張政策(RSP)」を掲げ、軍事利用などへの慎重姿勢を示してきた。

しかし今回、米政府からサプライチェーンリスク企業に指定されるなど圧力が強まる中、姿勢を軟化させたと受け止められている。

実際、米国がイランへの空爆を進める過程で、アンソロピックのAIモデル「クロード」が情報分析や標的識別、戦場シミュレーションなどに利用されたと伝えられている。

こうした状況を受け、AI倫理の「ガードレール」が国家や戦争の前では機能しにくいとの指摘も出ている。

◇「企業単独では限界」国際ルール必要

専門家は、AI倫理を企業の自主規制だけに任せることの限界を指摘する。

韓国のAI安全研究者は「倫理は戦争の前では力を発揮しにくいのが現実だ」とし、「倫理を掲げてきた企業でも、国家安全保障や生存の問題が絡めば妥協せざるを得ない」と分析する。

そのうえで「国家の圧力の中で原則を守るのは難しい。だからこそ国際的な合意とルールづくりが重要になる」と強調した。

アンソロピック自身も、今年2月に発表したAI安全方針「責任ある拡張政策3.0」で、国家によるAIの悪用に対する対策は企業単独では困難であり、各国政府との協力が不可欠だと認めている。

AIが軍事分野で急速に活用される中、戦争の形が変わりつつあるとの指摘も出ている。専門家の間では、将来の戦争では人間が「ボタンを押すだけの役割」になる可能性もあるとの懸念が広がっている。【news1 イ・ギボム記者】

(c)news1

RELATED ARTICLES

Most Popular