Q2-2-1.人工知能システムが導入・活用される場合、市民の人権に及ぼす否定的な影響、あるいは危険は何ですか。
Q4-3-2.人工知能システムが意図した通りに作動しなかったり、人権に及ぼす関連責任を明確にして人工知能システムを改善し、否定的な影響を緩和したりするために必要な手続きを打ち立てましたか。
最近、韓国国家人権委員会が公開した「人工知能(AI)人権影響評価導入法案」研究報告書に含まれたAI人権影響評価ツール案の質問項目だ。「チャットGPT」などによるAI技術高度化がもたらす人権侵害を防ぐのが狙いだ。AI発展と拡散による個人情報・私生活に関する権利侵害、差別など人権問題に対する懸念を反映したものだ。
韓東(ハンドン)大学産学協力団は、研究報告書を通じてAI人権影響評価ツール案を開発し、国家人権委に提出した。ツールの中には、AI技術と関連した影響をチェックできる質問項目が含まれた。個人情報保護を順守しているのか、データセット(資料の集合体)は普遍的なものなのか、敏感な情報を含んでいるのか――などだ。人権影響評価は、国や自治体、企業が推進する事業過程、政策、立法について、人権に及ぼす影響がどれだけあるかを測定、評価するものだ。
主要先進国や企業もAIの人権影響評価を導入する傾向を見せている。国連人権理事会は昨年、国や企業に対し、AIシステムが及ぼす人権への影響に関する調査を勧告した。グーグル、フェイスブック、マイクロソフトなどビッグテック企業も自社のAIに対して人権影響評価を実施した。
韓国でも人権委が昨年5月、「AI開発と活用に関する人権ガイドライン」を整えた。これは、セクハラ発言や少数者に対する差別・嫌悪発言が論争になったチャットボット「イルダ」事件がきっかけだ。
ガイドラインは▽人間の尊厳性や個人の自律性と多様性の保障▽透明性と説明義務▽自己決定権の保障▽差別禁止▽人工知能の人権影響評価施行▽危険度等級や関連法・制度用意――などが骨子だ。
人権委は、国務総理と科学技術情報通信相、個人情報保護委員長、放送通信委員長など各機関のトップに対し、ガイドラインに基づいて人工知能関連政策を実行するよう勧告した。
評価対象には▽消防▽応急医療▽身元確認▽人事採用・評価▽犯罪捜査▽出入国管理▽法律解釈――など多様な分野が挙げられる。
AI人権影響評価の導入に先立ち、明確な法律的根拠を設けるべきだという指摘も出ている。現在は人権影響評価を受けなければならない対象が法制化されていないのだ。
(つづく)
(c)MONEYTODAY