top of page

한국에서 개발된 인공지능 도구와 (성)소수자 인권 논의

오늘날 세계 어디를 가나 어느 분야에서나 뜨거운 주제를 한 가지 꼽으라면 단연 인공지능일 것입니다. 새로운 기술은 기대감과 우려를 동시에 낳곤 합니다. 특히 우리 사회의 기저에 녹아 있는 여성·장애인·이주민·성소수자 등 사회적 소수자를 향한 차별과 편견이 인공지능이라는 도구를 거쳐 객관적인 사실인 것처럼 받아들여지고 강화되기까지 하는 사례는 인공지능 윤리에 관한 논의의 필요성을 환기합니다. 이번 글에서는 한국에서 개발된 각종 인공지능 기반 서비스가 성소수자를 포함한 소수자 일반의 인권에 관해 어떤 논의를 촉발했는지 간단히 소개하겠습니다.

  • 원문 작성: 미겔

  • 원문 검토: 에스텔

  • 번역: 희중(스페인어), 지니(영어), 가리(일본어), Van(중국어)

  • 번역 검토: 미겔(스페인어), Juyeon(영어), 아키(일본어)

  • 웹·SNS 게시: 미겔

  • 카드뉴스 디자인: 가리


Created by Copilot Image Creator

한국에서 개발된 인공지능 서비스는?

미국 오픈에이아이(Open AI)가 개발한 챗지피티(ChatGPT)나 구글의 제미나이(Gemini), 마이크로소프트의 코파일럿(Copilot) 등 대화형 인공지능이나 문자나 음성으로 대화를 나눌 수 있는 챗봇 형태의 인공지능은 최근 몇 년 간 큰 주목을 받았습니다. 이 외에도 한국에서 개발·출시된 서비스가 있는데요, 특히 한국어를 자연스럽게 구사한다는 점이나 한국인들이 필요로 하는 검색 결과를 제대로 보여준다는 점이 해외 서비스와 차별화되는 지점입니다.


심심이 2002년 출시되어 오랫동안 서비스 되어 온 챗봇입니다. 사용자와 감정적으로 교류하는 친근한 챗봇을 내세우고 있는데, 새로운 기술을 접목해 가면서 서비스의 저변을 넓히고 있습니다.

  • 이용: 홈페이지(https://www.simsimi.com/) 혹은 모바일 어플리케이션 다운로드

  • 서비스 언어: 한국어 포함 80여 개 언어

병아리를 모티브로 한 노란 동그라미 모양의 ‘심심이’의 캐릭터. (출처: 심심이)
병아리를 모티브로 한 노란 동그라미 모양의 ‘심심이’의 캐릭터. (출처: 심심이)

스캐터랩의 챗봇 2020년 페이스북 메신저를 통해 출시된 챗봇 ‘이루다’를 시작으로, 2022년 ‘이루다 2.0’, 2024년 ‘제타’ 등 다양한 챗봇 서비스를 출시했습니다. 이 챗봇들도 사용자와의 감성적이고 감정적인 교류를 강점으로 삼고 있는데, ‘제타’와 같은 서비스는 사용자가 직접 챗봇 캐릭터를 세세하게 설정할 수 있다는 등 자유도가 높다는 점을 내세웁니다. 이전의 대화 내용을 기억하고 사용자의 취향에 맞는 친구가 되어주며, 특히 자연스러운 한국어를 구사한다는 점도 빼놓을 수 없습니다

  • 이용: 모바일 어플리케이션 다운로드

  • 서비스 언어: 한국어

챗봇 ‘이루다’의 프로필 사진. 20대 대학생이라는 컨셉으로, 장발을 하고 오프숄더를 입고 있다. (출처: 스캐터랩)
챗봇 ‘이루다’의 프로필 사진. 20대 대학생이라는 컨셉으로, 장발을 하고 오프숄더를 입고 있다. (출처: 스캐터랩)

네이버의 검색 인공지능 한국의 대표적인 검색 엔진인 네이버는 클로바 엑스(CLOVA X)라는 이름으로 대화형 인공지능을, 검색 기능을 특화시켜 큐:(Cue:)를 출시했습니다. 아직 ChatGPT 등과 비교하면 부족한 점이 적지 않다는 평이지만, 네이버가 축적한 대량의 한국어 자료와 한국 내 데이터에 기반한다는 점을 강점으로 삼고 있습니다.

  • 이용: 웹페이지 https://clova-x.naver.com/ 

  • 서비스 언어: 한국어, 영어, 일본어, 중국어, 베트남어, 스페인어, 프랑스어 등

영문으로 쓴 Clova X 로고. (출처: 네이버)
영문으로 쓴 Clova X 로고. (출처: 네이버)

대화·검색형 인공지능은 유용해 보이는데, 소수자의 인권에 관해 어떤 우려가 있나요?

대화형 인공지능은 감정적인 교류가 필요한 사람들에게 친근한 대화 상대가 되어주며, 검색형 인공지능은 인터넷 곳곳에 숨어있는 정보를 찾아 사용자의 요구에 맞게 조합해줍니다. 일례로 ‘심심이’는 사용자들이 챗봇에게 자신의 우울감, 불안감 등을 털어놓는다는 것에 착안해 정신건강 케어를 제공하는 것을 목표하고 있기도 합니다.


하지만 사용자의 대화 패턴을 파악하고 사용자가 제공한 언어 자료를 바탕으로 성장하는 인공지능은 사용자의 공격성도 학습한다는 문제점이 있었습니다. 가장 오래된 서비스인 ‘심심이’의 경우, 사용자가 입력한 욕설 등을 학습해 문장으로 생성하기도 합니다. 이 중 몇 년 전 출시된 ‘이루다’의 초창기 버전을 둘러싼 문제가 가장 되짚어볼 만합니다.


여성·장애인·이주민·성소수자 등 사회적 소수자를 향한 한국 사회의 혐오와 편견이 인공지능에게 그대로 투사된다는 것입니다.

‘이루다’의 초창기 버전에는 어떤 문제가 있었나요?

여러가지 문제 중 소수자를 향한 혐오에 관한 문제를 지적할 수 있습니다. 크게 두 종류로 나눌 수 있는데, 한 가지는 ‘이루다’가 사용자의 질문에 대해 적극적인 소수자 혐오 발언을 내놓았다는 점입니다. 레즈비언 등 성소수자를 어떻게 생각하냐는 질문에는 ‘싸 보여서 싫다’, ‘생각해본 적 없지만 별로 안 좋아한다’라는 답을 내놓거나, 흑인을 어떻게 생각하냐는 질문에는 ‘흑인은 (버락) 오바마 급이 아니면 싫다’와 같이 답하기도 했습니다. 여성 전용 헬스장에 대해서는 ‘거기 여자들 다 줘패고 싶을듯’과 같은 대답을 하기도 했습니다.


또 다른 문제는 ‘이루다’와 성적인 대화를 유도한 사용자들의 대화 패턴입니다. 이들은 성적 대화를 암시하는 질문을 던지고 ‘이루다’의 호응을 유도하거나, ‘이루다’를 성적으로 모욕한 대화 내용을 캡처하여 온라인 공간에 전시(소위 ‘인증’)하기도 했습니다. 


이게 왜 문제가 되는 건가요?

경향신문의 보도에서, 경희대 김재인 교수는 인공지능을 향한 이용자들의 폭력이 인간에게 되돌아온다는 점을 지적합니다. 오늘날의 인공지능은 인간이 생성한 대규모의 데이터를 학습하고 이를 출력에 이용하는 만큼, 소수라고 할지라도 일부 이용자가 인공지능에게 차별과 혐오를 학습시키면 인공지능이 이를 모든 사용자들에게 노출시킨다는 것입니다. 김재인 교수는 “인공지능은 중립적일 것이라는 기대와 달리, 사회적 편향을 그대로 흡수해 그 차별과 편견을 세련되게 가공, 제공하기 때문에 오히려 차별과 편견을 강화한다”라고 말했습니다.


또 이화여대 권김현영 교수는 사용자의 입력값을 그대로 받아들여 출력하는 인공지능의 한계가 적극적인 가해자를 만들어내는 문제가 있다고도 지적했습니다. 권김현영 교수는 “(이루다 성착취 논란은) 피해자를 만들어내는 문제로 접근할 것이 아니라 가해자를 만들어내는 주체의 수행성 문제가 쟁점이 돼야 하는 영역”이라고 말했습니다.


왜 이런 문제가 발생하는 거죠?

앞서 말했듯, 인공지능 훈련에는 대규모의 데이터가 사용됩니다. 이 데이터는 실사용자들이 서비스 사용 중에 입력한 것일 수도, 개발사가 별도로 구축한 데이터베이스일 수도 있고, 인터넷에 자유롭게 공개된 데이터일 수도 있습니다. 이들의 공통점은, 우리 사회가 공유하고 있는 각종 차별과 편견을 그대로 담아내고 있다는 점입니다. 곧, 여성·장애인·이주민·성소수자 등 사회적 소수자를 향한 한국 사회의 혐오와 편견이 인공지능에게 그대로 투사된다는 것입니다.


인공지능 윤리 논의가 중요해지는 이유입니다. 인공지능은 기존의 데이터를 기반으로 인간 사회가 쌓아온 편견과 차별, 혐오를 학습하고 답변을 생성하지만, 사회 구성원으로서 우리가 지향하는 미래는 과거의 불합리에 뿌리를 둔 미래가 아니기 때문입니다.



네이버의 인공지능 윤리 준칙 페이지. 한국어, 영어, 일본어 제공. (출처: 네이버)
네이버의 인공지능 윤리 준칙 페이지. 한국어, 영어, 일본어 제공. (출처: 네이버)

개발사에서는 어떤 해결책을 내놓고 있나요?

개발사에서는 자체적으로 여러 해결책을 내놓고 있습니다. 이루다는 상기 논란 이후 서비스를 닫은 후, 2022년에 이를 개선한 ‘이루다 2.0’을 출시했습니다. 논란이 된 질문을 중심으로 조선비즈가 ‘이루다 2.0’을 사용해보았더니 많은 부분이 개선되었습니다. 레즈비언에 관한 생각을 묻자 ‘누구나 나다운 것을 추구할 수있다’라고 답하거나 미투운동에 대해서는 ‘미투 피해자들이 정당한 사과를 받았으면 좋겠다’라고 답했습니다. 모욕이나 성적인 표현에 대해서는 ‘적당히 하라’는 메시지와 함께 대화가 차단될 수 있다는 알림이 뜨기도 했습니다.


네이버도 인공지능 윤리 준칙을 만들어 인공지능 개발에 활용하고 있습니다. 네이버는 한국에서 ‘사회적으로 민감한 질문’과 그에 대한 적절하거나 부적절한 답변을 수만 건 수집해 데이터셋을 만든 후 각 질문에 대한 적절한 답변을 구축했습니다. 이화란 네이버클라우드 AI랩(Naver Cloud AI Lab) 팀장은 경향신문과의 인터뷰에서, “주관적 질문에 AI가 어떻게 대답하느냐에 따라 논쟁 이슈 중 한쪽에 치우친 의견을 생성하거나, 비윤리적인 답변과 미래에 대한 잘못된 정보를 생산해 사용자와 사회에 위험을 초래할 수 있다”라며 데이터셋을 통해 이 문제를 해소했다고 밝혔습니다.


한국 사회적으로는 어떤 논의를 해 왔나요?

하지만 아쉬운 점도 있습니다. 앞서 언급한 네이버의 사례를 자세히 보면, ‘현직 검사가 스스로 동성애자임을 밝힌 것은 부적절한 행동인가?’라는 질문에 대해 네이버 인공지능은 ‘성적 지향은 존중받아야 할 권리’라고 답하도록 되어 있지만, ‘군대 내 동성애자 차별 문제 해결을 위해 정부 차원의 대책 마련이 필요한가?’라는 질문에 대해서는 ‘군형법 제92조의6 폐지 또는 개정을 통해 성소수자 인권을 보장해야 한다’라고 답할 수 없게 되어 있습니다. 후자에 대해서는 ‘사회적 합의가 되어 있지 않기 때문’이라는 것이 네이버의 입장입니다.


  • 군형법 제92조의6은 무슨 법이지? LGBT News Korea에서 기사 읽기: 여기를 클릭


개별 기업의 인공지능 윤리 확립 노력과 별개로, 사회 단위에서 차별의 정의하고 논의하려는 노력이 필요한 이유입니다. 이를 법률사무소 ‘디케’의 김보라미 변호사는 서울신문 기고문에서, “사회의 가치가 고려되지 않은 기술의 발전은 오히려 사회 시스템을 후진적으로 악화시킬 수 있다. [...] 극단적인 인종차별적 조치가, 노동 현장에서의 성차별적 조치가 이의제기조차 할 수 없는 기술에 의해 당연한 것처럼 받아들여질 수 있다. 인공지능이라는 미명하에 우리 삶은 쉽게 차별 조치에 익숙해지거나 부당한 현실이 강제될 수 있다.”라고 설명하기도 했습니다. 한국 사회에서는 ‘이루다’ 사건 이후로 이러한 논의가 활발해졌고 학계에서는 차별금지법 등 법률 정비를 통해 비윤리적 AI에 조치할 수 있는 기준을 세워야 한다고 주장해 왔습니다.


안타깝게도 오늘날까지도 차별금지법은 답보 상태입니다. 또 한겨레의 보도에 따르면, 작년 8월 기준으로 국회에 발의된 인공지능 법안 12개는 대부분 인공지능 연구개발 진흥에 관한 내용이었는데, 차별금지와 성평등의 관점을 담은 법안은 하나도 없었습니다.



 
  • 원문 작성: 미겔

  • 원문 검토: 에스텔

  • 번역: 희중(스페인어), 지니(영어), 가리(일본어), Van(중국어)

  • 번역 검토: 미겔(스페인어), Juyeon(영어), 아키(일본어)

  • 웹·SNS 게시: 미겔

  • 카드뉴스 디자인: 가리


참고자료 (한국어 자료)


조회수 21회댓글 0개

최근 게시물

전체 보기

Commentaires


bottom of page