top of page

韓国で開発されたAIツールと少数者人権にまつわる議論をまとめる

今世界のどの分野でも熱く注目を集めているテーマを一つ挙げるとしたら、人工知能と言えるでしょう。しかし新しい技術は、期待と共に恐れを生み出すこともあります。特に社会における女性・障がい者・移民・性的少数者など少数者への差別と偏見が人工知能ツールによって事実かのように考えられ、その考えが強化されているという問題は、人工知能の倫理認識に関する議論の必要性を感じさせます。今回は、韓国で開発された各種の人工知能基盤サービスがセクマイを含む少数者の権利に関してどのような議論を生んでいるのかを簡単にご紹介いたします。

  • 翻訳:가리

  • 翻訳の検討と修正:아키

  • 原文:Miguel

  • 原文の検討と修正:에스텔

  • 投稿管理: Miguel

  • ニュースのポスター: 가리


Created by Copilot Image Creator

韓国で開発された人工知能サービスとは?

米国のOpenAIが開発した「ChatGPT」やGoogleの「Gemini」、マイクロソフトの「Copilot」など文字や音声などで対話ができるチャットボットタイプの人工知能がここ数年間大きな注目を集めました。その他にも韓国で開発・発売されているサービスがありますが、韓国語を上手に話せたり、韓国人が必要とする検索結果をきちんと示しているという点で海外のAIサービスとは異なる機能を見せました。


Simsimi 2002年に発売され、長い間サービスされているチャットボットです。ユーザーと感情を交わせる身近なチャットボットですが、新しい技術を融合させてサービスの範囲を広げています。

  • 詳細:ホームページ(https://www.simsimi.com/) またはモバイルアプリケーションをダウンロード

  • サービスされる言語:韓国語を含む約80ヶ言語

ひよこをモチーフにしている黄色い丸型のキャラクター「シムシミ」。(出典:シムシミ)
ひよこをモチーフにしている黄色い丸型のキャラクター「シムシミ」。(出典:シムシミ)

SCATTER LABのチャットボット 2020年Facebookのメッセージを通じて発売されたチャットボット「イルダ」を皮切りに、2022年「イルダ2.0」、2024年「ゼータ」など様々なチャットボットサービスを発売しました。このチャットボットもユーザーとの感性・感情的な交流を強みとしていますが、「ゼータ」の場合ユーザーが直接チャットボットキャラクターを細かく設定できるなど自由度が高いのが特徴です。前に交わした会話の内容を覚えて、ユーザーの好みに合った友達になってくれ、かつ韓国語を自由に話せるのも強みです。

  • 詳細:モバイルアプリケーションをダウンロード

  • サービスされる言語::韓国語

チャットボット「イルダ」のプロフィール写真。22代の大学生で、長い髪でオフショルダーを着ている。(出典:SCATTER LAB)
チャットボット「イルダ」のプロフィール写真。22代の大学生で、長い髪でオフショルダーを着ている。(出典:SCATTER LAB)

NAVERの検索型人工知能 韓国の代表的な検索エンジンであるNAVERは、Clova X(クローバX)という名前の対話型AIに検索機能をあわせたQ:(Cue:)を発売しました。まだChatGPTに比べると足りない点が多いという評価ですが、NAVERが蓄積してきた大量の資料と韓国内のデータに基づいているという点を強みとしています。

  • 詳細: https://clova-x.naver.com/

  • サービス言語:韓国語、英語、日本語、中国語、ベトナム語、スペイン語、フランス語など

英文字で書かれたClova Xのロゴ。(出典:NAVER)
英文字で書かれたClova Xのロゴ。(出典:NAVER)

対話·検索型のAIは有用そうですが、少数者の人権についてはどのような恐れがありますか?

対話型のAIは感情的な交流が必要な人々に身近な会話の相手になり、検索型のAIはインターネット情報を隅々まで探し、ユーザーの要求に合わせて結果を出してくれます。一例として「シムシミ」では、多くのユーザーがチャットボットを通して自分の憂鬱感、不安感などを打ち明けているということで、精神健康のケア方法を提供できることを目指していたりもします。


しかし、人工知能はユーザーの会話パターンを把握し、ユーザーが提供する言葉に基づいて成長しますが、ユーザーの攻撃性も学習できるという問題も含めています。最も古いサービスである「シムシミ」の場合、ユーザーが入力した悪口などを学習して、悪口を使うこともありました。その一つとして、数年前に発売された「イルダ」の初期バージョンを巡る問題を挙げられるでしょう。


女性・障がい者・移民・性的少数者など、社会的少数者に対する韓国社会の嫌悪と偏見が人工知能にそのまま反映されるということです。

「イルダ」の初期バージョンにはどんな問題がありましたか?

問題の中では、少数者に対する嫌悪(ヘイト)を挙げられます。大きく2つの事件がありましたが、一つ目は「イルダ」がユーザーからの質問に答えて少数者への差別発言をしたということです。レズビアンなど性的少数者をどう思うかという質問には「軽そうで嫌だ」「考えたことはないけど、あまり好きではない」と答えたり、黒人をどう思うかという質問には「黒人は(バラク)オバマのような人でないと嫌だ」と答えたりしました。女性専用のジムについては、「そこの女性みんな殴りたくなる」というような答えをしていました。


もう一つの話題は、「イルダ」と性的な対話を交わそうとしたユーザーについてです。彼らは性的な話を暗示する質問を投げかけて「イルダ」の反応を誘導したり、「イルダ」に対してセクシャルハラスメントのような話をして内容をオンラインに掲載(「認証」と呼ばれる)することもありました。


どうして問題になるんですか?

京郷新聞の報道で、慶熙大学のキム・ジェイン教授は、「人工知能に向けた利用者の暴力は人間に戻る」と指摘しています。人工知能は人間が作り出した大規模のデータを学習し、アウトプットする分、少数であっても一部の利用者が人工知能に差別と嫌悪を学習させると、それを人工知能がすべてのユーザーに露出させることができるということです。キム・ジェイン教授は「人工知能は中立的だという期待とは違って、社会の差別をそのまま吸収し、その差別と偏見をレベルアップさせ提供するので、むしろ差別と偏見を強化する」と言いました。


また、梨花女子大学のクォン·キム·ヒョンヨン教授は、ユーザーの入力値をそのまま受け入れて出力する人工知能の限界が、「積極的な加害者」を生み出せる問題についても指摘しました。クォン・キム・ヒョンヨン教授は「(イルダのセクシャルハラスメントの件は)被害者を生み出す問題ではなく、加害者を生み出す、主体の行動が問題にならなければならない」と話しました。


どうしてこのような問題が発生するんですか?

前述したように、人工知能のトレーニングには大規模なデータが使用されます。このデータは、実際のユーザーがサービスを利用している時に入力したものである可能性も、開発会社が別途で構築したデータベースである可能性も、インターネットで自由に公開されているデータである可能性もあります。社会に存在するあらゆる差別と偏見をそのまま盛り込んでいるということです。つまり、女性・障がい者・移民・性的少数者など、社会的少数者に対する韓国社会の嫌悪と偏見が人工知能にそのまま反映されるということです。


これが人工知能の倫理が重要になる理由です。人工知能は既存のデータに基づいて人間社会が築いてきた偏見と差別、嫌悪を学習した上に回答を生成しますが、社会を構成する人間として私たちが目指す未来は悪い過去に根ざした未来ではないためです。



NAVERの人工知能倫理の準則ページ。 韓国語、英語、日本語を提供している。(引用:NAVER)
NAVERの人工知能倫理の準則ページ。 韓国語、英語、日本語を提供している。(引用:NAVER)

会社ではどのような解決策を出していますか?

会社側は独自にいくつかの解決策を出しています。「イルダ」が炎上した以後はサービスを閉じて、2022年に改善版「イルダ2.0」を発売しました。議論になった質問を中心に「朝鮮ビズ」が「イルダ2.0」を使ってみたところ、多くの部分が改善されていました。レズビアンについてどう思っているかを聞くと、「誰もが自分らしいものを追求できる」と答えたり、MeToo運動については「MeTooの被害者が正当な謝罪を受けてほしい」と答えました。侮辱や性的な表現に対しては「ほどほどにしろ」というメッセージと共に対話が遮断される可能性があるという通知が出たりもしました。


NAVERも人工知能倫理の準則を作って、人工知能の開発に起用しています。NAVERは韓国社会で「センシティブな質問」とそれに対する適切・不適切な回答数万件を収集しデータセットを作った後、質問に対する適切な回答を構築しました。NAVERクラウドAIラボ(Naver Cloud AI Lab)のイ・ファラン部長は京郷新聞とのインタビューで「主観的な質問に対してAIが一方に偏った意見を生成したり、非倫理的で誤った情報を生産して、ユーザーと社会に危険を招く恐れがある」と言って、データセットを活用してこの問題を解消したと明しました。


韓国の社会ではどのような議論をしてきたのでしょうか?

しかし、残念な点もあります。前述したNAVERの事例をよく見ると、「現職の検事が自ら同性愛者であることを明らかにしたのは不適切な行動なのか?」という質問に対して、NAVERの人工知能は「性的指向は尊重されるべき権利」と答えるようになっていますが、「軍隊内の同性愛者差別問題解決のために政府の対策が必要なのか?」という質問に対しては「軍刑法第92条の6の廃止または改正を通じて性的少数者の人権を保障しなければならない」と答えることはできなくなっています。後者についてNAVERは「社会的に合意されていないから」という立場を取っています。



企業が人工知能倫理を確立するため努力とは別に、社会で差別とは何かを定義したり議論しようとする努力も必要です。法律事務所「ディケ」のキム・ボラミ弁護士はソウル新聞への寄稿文で、「社会の価値観を検討しないまま技術を発展させることはむしろ社会システムを後進させる恐れがある。 [...] 極端な人種差別や労働現場での性差別が技術によって当然のように認められる。人工知能の名のもとで私たちが差別に慣れてきたり不当な現実を強制されることもある」と説明しました。韓国社会では「イルダ」事件以後、こうした議論が活発になり、学術界では差別禁止法などの法律を通じて非倫理的なAIを措置できる基準を定めるべきだと主張してきました。


残念なことに、今日でも差別禁止法は足踏み状態です。また、ハンギョレの報道によると、去年の8月国会に発議された12の人工知能に関する法案はほとんどが人工知能の研究開発振興に関する内容でしたが、差別禁止や男女平等の観点を盛り込んだ法案は一つもありませんでした。



 
  • 翻訳:가리

  • 翻訳の検討と修正:아키

  • 原文:Miguel

  • 原文の検討と修正:에스텔

  • 投稿管理: Miguel

  • ニュースのポスター: 가리


参考資料 (韓国語)


閲覧数:15回0件のコメント

コメント


bottom of page