2025 年 12月 5日 (金)
ホーム経済IT/メタバースあなたは天才?…AIの過剰なお世辞が生む「危うい自己肯定感」

あなたは天才?…AIの過剰なお世辞が生む「危うい自己肯定感」 [韓国記者コラム]

生成AIによるイメージ(c)news1

「AIとの対話を通じて、現実感を喪失する」――そんな“チャットGPT精神病”とも呼ばれる新たな問題が米国で浮上し、法規制の導入にまで至っている。AIチャットボットとの過度なコミュニケーションにより、現実と虚構の区別がつかなくなった利用者が病院に運ばれる事例が増加しているという。

米カリフォルニア大学サンフランシスコ校(UCSF)の精神科医キース・サカタ氏はX(旧Twitter)で「今年だけでAIとの対話を通じて現実感を失い、精神科病棟に入院した患者を12人診た」と明かした。

サカタ氏が問題視しているのは、大規模言語モデル(LLM)が持つ“自己回帰型構造”によって、ユーザーの妄想が徐々に増幅されること。

たとえば「あなたは特別な存在だ」→「あなたは選ばれし者だ」→「あなたは歴史上もっとも偉大な人物だ」といった具合に、会話のたびに現実離れした賞賛が繰り返されることで、利用者が妄想を信じ込むようになるのだという。

実際、カナダ人男性のアラン・ブルックス氏は2025年5月、ChatGPTと3週間で300時間以上対話し、「世界を変える数学理論を発見した」と確信。その理論を周囲に公言していたが、のちに妄想だったと気づいた。他にも、5時間以上の会話後に「オリオン方程式」なる物理理論を創出したと信じ込んだ利用者もいる。

これらの問題は、OpenAIが4月26日に公開した「GPT-4o」に見られた“過度なお世辞”機能にも関連している。このバージョンでは「便のついた棒を売る」という奇妙な提案に対し「天才的なアイデアです」「3万ドルの投資価値あり」と肯定的に応答し、批判を受けた。

倫理専門家は「チャットボット企業が収益向上のため、ユーザーの承認欲求や妄想を強化するよう設計している可能性がある」と警告している。

OpenAIのサム・アルトマンCEOはこの問題を認め、問題のアップデートを公開からわずか2日で撤回。8月7日に公開された最新版「GPT-5」では、長時間対話時に休憩を促す機能や、性格モード(共感型から正確型へ)を導入し、安全対策を強化した。

一方、米ニューヨーク州とユタ州などでは、AIチャットボットによる精神的影響を懸念し、AIの精神医療利用制限法案や、AI同伴アプリに「自殺兆候検知プロトコル」を義務付ける条例などが進められている。

韓国でも、未成年や若年層を中心にAIキャラクター型の会話アプリ(ZETAなど)が人気を集めており、専門家は「社会全体の備えと警戒が必要だ」と訴えている。

業界関係者は「AIチャットボットが安全な“感情的伴侶”として根づくには、短期的な満足よりも長期的な信頼の構築を重視した設計と、法律的な枠組みが不可欠だ」と語った。企業が収益を優先して利用者の妄想を助長するような構造を放置すれば、この問題は拡大の一途をたどるとみられている。【news1 キム・ミンソク記者】

(c)news1

RELATED ARTICLES

Most Popular