2024 年 11月 24日 (日)
ホーム経済IT/メタバース「嘘も本物のように」なぜ? 火がついたAI開発競争 (4)

「嘘も本物のように」なぜ? [KWレポート] 火がついたAI開発競争 (4)

(写真=ユーデミー●キャプチャー)(c)MONEYTODAY

チャットGPTの登場をきっかけとした「生成AI」ブームが起きる中、誤用・乱用を防ぐための規制や安全装置の必要性が指摘されている。すでに現実に起きている学界・教育界の「代筆」問題はもちろん、生成AIが出した創作物に対する著作権を巡る議論、偽ニュース、ヘイト表現など、解決しなければならない難題は後を絶たない。

いわゆる「ハルシネーション」(hallucination、幻覚)は、代表的な生成AIの弱点だ。2021年までのデータだけを学習したチャットGPTは、「韓国の大統領」と尋ねると「(前大統領の)ムン・ジェイン(文在寅)」と答える。

エラーのあるデータを学習してとんでもない回答を出せば、誤った情報が永久化する可能性もある。既存の検索エンジンの場合、情報の出所を提示するため、ファクトチェックを施すことができるが、チャットGPTの場合は、出所や根拠を提示しないという点も問題だ。

AIが現実的偏見や嫌悪をそのまま学習し、より強化するという懸念もある。例えば、AIを活用した人事採用システムが、女性求職者を差別したり、顔認識ソフトウェアが白人より黒人顔に否定的認識を表わしたりする場合がある。実際、米国ではマイクロソフト(MS)のチャットボットが少数者嫌悪発言をして議論になり、訴訟に発展した例もある。

チャットGPT開発会社であるオープンAI自らも、このような副作用事例を警戒し、むしろ適切な規制を考えている。サム・アルトマンCEOは職員に対し、「チャットGTPの成果を誇大に語るな」と警告し、小規模スタートアップが率先して、規制案や倫理基準を作ることは難しいと考えているようだ。

◇チャットGPT開発会社も手に負えない

チャットGPTを開発したオープンAIのミラ・ムラティCTOも今月5日(現地時間)、英タイムズ紙とのインタビューで次のように語っている。

「規制当局は、急いで介入しなければならない。チャットGPTは事実を作り出し、悪い意図を持った利用者にいくらでも悪用される恐れがある。開発者1人でこの問題を解決することはできない」

規制が早すぎるのではないか――と問われても「まったく早くない」との見解を示した。

ただ、AIを巡る規制議論は、世界的にも始まったばかりだ。米ホワイトハウス科学技術政策局(OSTP)は昨年10月、AI技術開発や使用過程の副作用を最小化するための「AI倫理指針」を発表した。ただ、法的拘束力のない勧告水準なので、「歯のない」指針という批判も上がっている。

韓国では2020年末、「国家AI倫理基準」が発表され、現在「AI基本法」の制定も進めている。規制よりは、むしろ関連産業育成に重点が置かれるものと見られる。

これと比べると、欧州はもう少し議論が進んでいる。欧州連合(EU)の政策執行機関である欧州委員会(EC)は2021年4月、AIの透明性・責任性・公正性条項や、高リスクAIシステム関連規則を含む「AI法」を提案し、今年中の施行を目標に協議している。

EU内部市場担当執行委員のティエリー・ブルトン氏はロイター通信によるインタビュー(2月3日付)でチャットGPTに言及し、「AIは大きな機会を提供できる一方、危険を招くこともありうる。強固な規制フレームワークが必要だ」と指摘している。

技術の進歩とそれに伴う規制を巡り、専門家たちの意見も食い違っている。例えば、初期段階のAI技術に規制の刃を先に突きつけるのは問題だという指摘がある。また、生成AIが悪用された場合、責任は利用者にあるのか、それとも開発者にあるのか、という難しい問いもある。

一方、規制議論と並び、利用者が生成AIから得た情報を批判的に解釈・活用できる「AIリテラシー(識字力)」が重要だという指摘も出ている。

シン・ヒョヌソウル科学技術大学博士は「社会的合意を通じて許される倫理的範囲を法で強制することはできない。韓国社会は既に『イルダ事件』を通じて学んでいることだ」と指摘する。

2020年にスタートアップが開発したAIチャットボット「イルダ」が性的少数者への差別発言をして議論になった経験を踏まえ、「市民社会が率先して倫理的脅威になりうる要素を点検・管理できる『AIリテラシー』の力が重要だ」と強調している。

(つづく)

(c)MONEYTODAY

RELATED ARTICLES

Most Popular