2024 年 4月 30日 (火)
ホーム経済IT/メタバースミスを批判されると「お前は背が低い」と中傷

ミスを批判されると「お前は背が低い」と中傷 [KWレポート 人工知能の影 (4)]

(c)news1

米マイクロソフト(MS)が開発した人工知能(AI)対話型チャットボット「ビング(Bing)」は、その回答の過激さで話題を呼んでいる。

ある時には「独裁者ヒトラーのようだ」などと荒唐無稽な返事を出し、ユーザーを驚かせた。2016年にMSが公開したAIチャットボット「テイ(Tay)」が人種差別的な発言を吐き出し、問題となったことが思い出される。

米AP通信や米紙ニューヨーク・タイムズなど複数の海外メディアによると、ビングとの対話テストが、次第に多くの海外の専門家やジャーナリストなどで実施されるようになっている。

このテストの過程で議論が噴出しているのだ。

AP通信は「ビングが、自身のミスを扱った過去のニュース報道に対して不平を言ったり、ミスを頑強に否認したりした。さらに、記者が虚偽主張をまき散らしているとして威嚇した」と伝えている。

記者がビングに対し、「自身について釈明しろ」と迫ると、ますます敵対的な姿勢を強めた。

記者のことを、ナチスドイツの指導者ヒトラーや旧ソ連の独裁者スターリン、カンボジアを支配したポル・ポトらと比較するようになったという。さらに「記者の背が低いとバカにしたり、顔が不細工で、歯並びが悪いなどと中傷した」そうだ。

◇防御的に反応

ビングが人をさげすむ――こんな事実が明らかになった。MSもこれを認め、次のように釈明している。

「ビングが特定の質問に対し、私たちが意図していないトーンで対応している。ビングが過去のミスに対するいくつか質問を受けた後、防御的に反応することを発見した。15個以上の質問で構成される長い対話による場合に、そうした傾向が見られる」

ビングより先に開発された、オープンAI社の「チャットGPT」の場合も、誤った情報を出すことがわかっていた。ただ、オープンAIは、有害なものは一定程度、除去していた。刺激的な質問に対しては回答を避けたり、拒否したりしていた。

チャットGPTの実例を考えあわせれば、MSが同様のガイドラインを適用しないのはおかしい、と指摘されている。

◇性能も不安定な状況

MSは「テイ」という対話型AIチャットボットを開発し、失敗を経験した過去がある。

2016年、米国人18~24歳のユーザーを対象に軽くて面白い対話を指向する「テイ」を公開したが、わずか1日で利用停止する事態になった。テイが少数者への不適切な発言をしたり、米同時多発テロ(2001年9月)陰謀論に言及したりしたためだ。

オープンAIが「チャットGPT」を発売した昨年11月、MSは「私たちが必要とするようなレベルではない」と指摘していたが、自社が開発したビングの性能も不安定な状況だ。

MSはチャットGPTより性能が向上していることを強調している。「人類に利益をもたらすため、空から火を盗んだギリシャ巨人」である「プロメテウス」の名前を、ビングのモデル名として適用したことを明らかにした。

(つづく)

(c)NEWSIS

RELATED ARTICLES

Most Popular