
韓国インターネット自律政策機構(KISO)は4日、チャットボットサービスの信頼度を高め、倫理的問題に対応するための「チャットボット倫理ガイドライン」を発表した。人間と交感しながら対話する人工知能(AI)チャットボットサービスが人間に役立つよう活用できるようにする。
AI全盛期を迎え、人工知能倫理が設けられ、法律が定められるなか、民間機構を通じてチャットボットに特化した倫理ガイドラインが発表されたのは初めて。会員会社はこのガイドラインを自律的に適用し、これを基にして各サービスの政策を準備することができる。
現在、KISOにはネイバーとカカオをはじめ、2002年に日常会話チャットボットサービスを公開した「シムシミ」、対話型AIチャットボット「イルダ」をサービス中の「スキャッターラボ」、人工知能自然言語処理スタートアップ「チュニブ」など、大部分のチャットボットサービス業者がKISO新技術委員会に参加している。
チャットボットは人間と直接対話しながら友達になったり、疑問を解消したりする。心理相談に使われるチャットボットは、人間との相互作用を通じてうつ病改善効果を与えたりもする。最近ではオープンAI「チャットGPT」が登場し、チャットボットが人間と同様のレベルの相互作用を提供することが可能になった。
ただ、チャットボットに過度に依存したり、チャットボットを誤って活用したりすれば、あるいは社会的弱者に対する偏見や否定的な見解がチャットボットによってフィルタリングされたりしない場合、否定的な影響がもたらされる可能性がある。
◇最初の民間主導型自律的ガイドライン
多様な分野でAIチャットボットの利用が増加しており、人間とチャットボットの区分が難しくなる時期が早く訪れるものと予想されることから、KISO新技術委員会は昨年10月、人間に役立つ方式でチャットボットを活用できるようにする行動倫理の準備に着手した。
「チャットボット倫理ガイドライン」は▽人間の尊厳性及び権利尊重原則▽プライバシー保護及び情報セキュリティ原則▽多様性尊重原則▽透明性原則▽責任原則――で構成された5つの基本原則を提案した。
チャットボットサービスの開発と運営、活用過程で発生し得る人工知能の偏向、権利侵害など倫理的問題に対応するために、開発者だけでなく運営者、利用者にも必要な行動倫理を相互補完的に提示した。
例えば、一般的な状況では対話相手がチャットボットであることを利用者にあらかじめ明示しながらも、心理相談などの特殊な場合、チャットボットであることを明らかにしない方がより有意義な効果をもたらす場合には、これを明かさない可能性があると明示した。
ガイドラインにはチャットボットサービスを開発して活用する全過程で利用者の多様性を尊重し、偏向と差別を減らすために努力しなければならないという内容も含まれている。すべての利用者のアクセシビリティが向上できるように児童と青少年、高齢層、障害者に配慮したアクセス画面の単純化や、機能追加に関する内容も含まれた。
KISO新技術委員会のイ・ジェシン委員長(中央大学メディアコミュニケーション学部教授)は「チャットボット倫理ガイドラインは、チャットボットを開発・運営するのに必要な行動倫理基準を提示する最初の民間主導型自律的ガイドラインという点で大きな意味がある。自律規制はAIの否定的効果を最小化しながらも、サービスの発展を阻害しないよう高い柔軟性・迅速性・効率性を提供するというメリットがある」と明らかにした。
(c)NEWSIS