米マイクロソフト(MS)が開発した人工知能(AI)対話型チャットボット「ビング(Bing)」は、人に敵対的な発言を吐き出し、愛の告白をするほど人の真似をする。
この現象が「AIは自我を持っているのではないか」という仮説につながる。
こうした「AI自我獲得説」は以前からある。
グーグルのエンジニアであるブレイク・ルモインは昨年、自社のAIモデル「ラムダ(LaMDA)」が「自意識を持っている」と主張した。しかし、グーグルは当時、ラムダ開発にかかわったルモインが、データ安全保障規定に違反したとして解雇したうえ、「彼の主張には信憑性がない」と切り捨てた。
AIの自我をめぐっては、学界でも議論を呼んでいる。ただ、「AIチャットボットは人間のように、うまく対話しているように見えるが、自我はない」との見方が有力だ。
◇「文字遊び」
ソウル大学AI研究院のチャン・ビョンタク院長によると、チャットGPTのような生成型AIモデルは「文字遊び」をしているに過ぎない、という。AIが生成する文章はもっともらしく見えるが、実際にはユーザーの質問意図を十分に理解して答えているのではないそうだ。
「生成型AIに特定の単語を持ちかけると、過去のデータに基づいて組み合わせて文章を作り上げる。AIが、歪曲されたデータを学習しているかもしれない。チャットGPTなどは、対話の文脈を記憶し、反映させる点に弱みがあるようだ。たとえば『柔道』に関する質問をすれば、とんでもない返事をする」
過激な文章が生成される背景について、チャン・ビョンタク氏は次のように説明する。
「チャットGPTやビングがどのような方式で設計されたのか知らないが、MSが『核』や『兵器』など、特定の単語に対する生成を禁止しなかったのだと思う」
◇文章だけで学習する点に限界
AIの学習能力の限界にも触れた。
「チャットGPTの明確な限界は、文章だけで学習する点だ。AIが文章を理解していると考えるのは誤りだ。人間の場合、『哺乳瓶』を思い浮かべると、哺乳瓶の中に入った温かい牛乳や、粉ミルクを入れてくれる母親といった記憶を、過去の経験もふまえて学習する。しかし、チャットGPTは『牛乳瓶』という単語が含まれた多様な文書に基づいて学び、ふさわしい文章を作り出すのだ」
AIに自我があるのでは、と恐れる必要はない。それは単に人間が過剰に恐怖を感じているだけだ――チャン・ビョンタク氏がこう強調する。一方で、次のように警鐘を鳴らした。
「AIの技術自体は中立的だが、仮に人間がある意図を持って悪用した場合、核兵器のように危険を生じることもあり得る。だからこそ、AIが教育や実生活全般に有益に活用されるように規制や倫理的な議論が必要だ」
(おわり)
(c)NEWSIS