在全球任何角落、任何领域,若问当前最热门的话题,那必然是人工智能。新兴技术带来的不仅是希望,还有担忧。尤其是在人工智能的处理下,社会边缘群体如女性、残障人士、移民和性少数者遭受的歧视和偏见似乎正在被曲解为客观事实,这一现象使得讨论人工智能伦理变得更为迫切。本文将介绍韩国开发的人工智能服务,并探讨它们如何引起了对包括性少数者在内的弱势群体人权的广泛讨论。
汉语翻译:Van
汉语译文编辑与修正:-
韩语原文:Miguel
韩语原文编辑与修正:에스텔
Web/SNS 发布: Miguel
卡片新闻设计: 가리
韩国开发的人工智能服务有哪些亮点?
近几年来,诸如美国OpenAI开发的ChatGPT、Google的Gemini、Microsoft的Copilot等对话式人工智能以及可以进行文字或语音交流的聊天机器人受到了广泛关注。除此之外,韩国也推出了自己开发的人工智能服务。特别值得一提的是,这些服务能够流畅地使用韩语,并且能够准确展示韩国用户所需的搜索结果,这一点与国外的服务形成了显著的差异。
SimSimi是一款自2002年起就服务至今的聊天机器人,以用户情感交流的亲切性为卖点。随着新技术的不断融入,SimSimi正拓宽其服务范围。
使用方法:访问官方网站(https://www.simsimi.com/)或下载其移动应用程序
服务语言:支持包括韩语在内的80多种语言
Scatter Lab旗下的聊天机器人自2020年通过Facebook Messenger推出首款聊天机器人“Lee Luda”以来,接连发布了多款服务,包括2022年的“Lee Luda 2.0”和2024年的“Zeta”。这些聊天机器人以与用户的情感和情绪交流为强项,如“Zeta”等服务允许用户高度自定义聊天机器人角色,增加了使用的自由度。此外,这些机器人能记住之前的对话内容,并成为符合用户喜好的朋友。其流畅使用自然韩语的能力也是一大亮点。
使用方法:下载移动应用程序
服务语言:韩语
韩国领先的搜索引擎NAVER推出了名为CLOVA X的对话式人工智能以及专注于搜索功能的Cue:。虽然与ChatGPT等服务相比仍有不足,但NAVER凭借其积累的大量韩语资料和韩国本地数据的优势,正在不断强化其服务。
使用方法:可以通过访问网页https://clova-x.naver.com/使用
服务语言:提供韩语、英语、日语、中文、越南语、西班牙语、法语等多种语言服务
看似实用的对话和搜索型人工智能服务引发了关于少数群体人权的何种担忧呢?
对话型人工智能为需要情感交流的人们提供了一个友好的对话伙伴,而搜索型人工智能能够在互联网上搜寻隐藏的信息,按照用户的需求进行组合。例如,聊天机器人“SimSimi”旨在提供心理健康护理,是基于用户经常会向其倾诉抑郁、焦虑等情感问题而开发的。
然而,人工智能通过分析用户的对话模式并根据用户提供的语言资料进行学习,也会学习到用户的攻击性行为。最古老的服务之一“SimSimi”就曾因为学习到用户输入的脏话等内容而产生问题。其中,围绕几年前推出的“Lee Luda”的早期版本的争议尤其值得探讨。
它们的共同点在于,这些数据反映了我们社会共有的各种歧视和偏见,意味着针对女性、残疾人、移民、性少数者等社会少数群体的仇恨和偏见被直接投射到了人工智能中。
“Lee Luda”的早期版本存在什么问题?
“Lee Luda”的早期版本存在一些严重问题,其中包括对少数群体的仇恨言论。这些问题主要分为两类:
一方面,“Lee Luda”在回答用户问题时直接发表了对少数群体的仇恨言论。例如,在被问及对女同性恋者等性少数群体的看法时,它的回答是“看起来很廉价,不喜欢”或“虽然没有特别考虑过,但不太喜欢”。在询问对黑人的看法时,“Lee Luda”’曾回答“如果不是奥巴马那样的级别,就不喜欢”。对于女性专用健身房,它甚至回答“感觉会想要去打那里的女性”。
另一方面,一些用户故意与“Lee Luda”进行和性有关的对话,他们提出含有性暗示的问题,诱导“Lee Luda”进行回应,或是捕捉这些对话内容并在网络上展示(所谓的“认证”)。
这些问题为什么会成为严重的社会问题?
据《京乡新闻》报道,庆熙大学的金在仁(音)教授指出,用户对人工智能的暴力行为最终会反馈到人类社会中。今天的人工智能通过大规模学习由人类生成的数据,并利用这些数据进行输出,即便是少数用户的歧视和仇恨内容也可能被人工智能学习并展示给所有用户。金教授说“人工智能并没有像预期所想的那样保持中立,反而是吸收了原有的社会偏见和歧视,并在润色加工后再次输出给公众,使得偏见和歧视被加强并传播。
此外,梨花女子大学的权金炫伶教授指出,人工智能受限于只能简单地接受并反映用户输入的内容,可能导致其成为一个积极的侵害者。权教授强调:“(关于“Lee Luda”的性剥削争议)不应仅仅作为造成受害者的问题来处理,而应当作为创造侵害者的行为表现问题来讨论。”
这种问题为何会发生?
正如前所述,人工智能训练使用的是大量数据。这些数据可能来自真实用户在使用服务过程中的输入,也可能是开发商特别构建的数据库,或者是在互联网上公开的数据。它们的共同点在于,这些数据反映了我们社会共有的各种歧视和偏见,意味着针对女性、残疾人、移民、性少数者等社会少数群体的仇恨和偏见被直接投射到了人工智能中。
这正是人工智能伦理讨论变得至关重要的原因。人工智能通过学习现有的数据产生回答,从而也学习了人类社会累积的偏见、歧视和仇恨。然而,作为社会成员,我们追求的未来不应基于不合理的过去。
开发商提出了怎样的解决方案?
开发商自行提出了多种解决方案以应对这些问题。例如,“Lee Luda”在引发争议后中断服务,随后在2022年推出了改进版本“Lee Luda 2.0”。使用“이루다 2.0”后发现许多问题已经得到改善。当问及对女同性恋的看法时,它回答说“每个人都应该追求自我”,对于“MeToo运动”,它表示“希望MeToo受害者能得到公正的道歉”。对侮辱性或性暗示的表达,系统还会提示“请适度发言”,并可能阻断对话。
NAVER也制定了人工智能伦理准则,并将其应用于人工智能的开发中。NAVER在韩国收集了数万个“社会敏感问题”及其适当或不适当的回答,创建了一个数据集,并为每个问题构建了适当的回答。在接受《京乡新闻》采访时,NAVER云AI实验室(Naver Cloud AI Lab)的团队负责人李和兰(音)指出,“AI对主观性问题的回答可能会产生偏向某一方的观点、非伦理性回答或关于未来的错误信息,从而给用户和社会带来风险。”她表示,这个问题已经通过数据集得到了解决。
韩国社会对此进行了怎样的讨论?
虽然开发商提出了解决方案,但仍存在一些遗憾。以NAVER的案例为例,虽然其人工智能在回答“一名现职检察官公开出柜是否是不当行为”这一问题时,能够正确回答“性取向应受到尊重”,但在回答“政府是否需要制定措施来解决军中对同性恋的歧视”这一问题时,NAVER的人工智能却不能直接提出“应通过废除或修改军刑法第92条之6来保障性少数者的权利”。对于后者,NAVER的立场是“因为社会尚未达成共识”。
什么是《军刑法》第 92(6)条? 点击此处阅读韩国 LGBT 新闻的文章: 点击此处
在韩国社会中,除了各企业自身努力建立人工智能伦理标准之外,还有必要在社会层面上定义和讨论歧视。法律事务所“Dike”的律师金宝拉美(音)在《首尔新闻》的文章中指出:“不考虑社会价值的技术发展可能会使社会系统更加落后。[...] 极端的种族歧视措施、工作场所的性别歧视措施可能会被当作理所当然,甚至无法提出异议。在人工智能的名义下,我们的生活可能会轻易习惯于歧视措施或被迫接受不公正的现实。” 在“Lee Luda”事件之后,这类讨论在韩国变得更为活跃。学术界也一直主张通过修订反歧视法等法律,为处理不道德的AI行为设立标准。
令人遗憾的是,直到今天,反歧视法仍处于停滞状态。根据《韩民族日报》的报道,截至去年8月,韩国国会提出的12项人工智能相关法案,大多数集中在促进人工智能研究和开发方面,没有一项法案包含了反歧视或性别平等的内容。
汉语翻译:Van
汉语译文编辑与修正:-
韩语原文:Miguel
韩语原文编辑与修正:에스텔
Web/SNS 发布: Miguel
卡片新闻设计: 가리
相关资料(韩语)
Comments