top of page

Discusión sobre inteligencia artificial desarrolladas en Corea y DD.HH. de las minorías (sexuales)

Si tuvieras que elegir un tema candente en cualquier campo en cualquier parte del mundo hoy en día, definitivamente sería la inteligencia artificial. Las nuevas tecnologías a menudo generan tanto entusiasmo como preocupación. En particular, se discuten casos en los que la discriminación y los prejuicios contra minorías sociales como las mujeres, los discapacitados, los inmigrantes y las minorías sexuales, que están arraigados en la base de nuestra sociedad, se aceptan e incluso se fortalecen como hechos objetivos a través de la herramienta de la inteligencia artificial, lo cual llama la atención sobre la necesidad de debatir sobre la ética de la inteligencia artificial. En este artículo, presentaremos brevemente cómo varios servicios basados ​​en inteligencia artificial desarrollados en Corea han provocado debates sobre los derechos humanos de las minorías en general, incluidas las minorías sexuales.

  • Traducción al español: 희중

  • Revisión de la traducción: Miguel

  • Redacción del texto original: Miguel

  • Revisión del texto original: 에스텔

  • Administración de la publicación: Miguel

  • Diseño de las diapositivas informativas: 가리


Created by Copilot Image Creator

¿Qué servicios de inteligencia artificial se desarrollaron en Corea?

La inteligencia artificial (IA) conversacional, como ChatGPT desarrollado por Open AI en EE.UU., Gemini de Google y Copilot de Microsoft, o los chatbots que pueden comunicarse a través de texto o voz, ha recibido mucha atención en los últimos años. Además, hay servicios desarrollados y lanzados en Corea, que se diferencian de los servicios en el extranjero en que hablan coreano de forma natural y muestran correctamente los resultados de búsqueda que los coreanos necesitan.


SimSimi es un chatbot que se lanzó en 2002 y lleva mucho tiempo en servicio. Están impulsando un chatbot amigable que interactúa emocionalmente con los usuarios y ampliando la base del servicio incorporando nuevas tecnologías.

  • Disponibilidad: sitio web (https://www.simsimi.com/) o descargar aplicación móvil

  • Idiomas de servicio: más de 80 idiomas, incluido el coreano

El personaje de 'SimSimi' tiene forma de círculo amarillo con motivo de un pollito. (Fuente: Simsimi)
El personaje de 'SimSimi' tiene forma de círculo amarillo con motivo de un pollito. (Fuente: Simsimi)

Los chatbots de Scatter Lab. A partir del chatbot 'Lee Luda', que se lanzó a través de Facebook Messenger en 2020, se lanzaron varios servicios de chatbot, incluidos 'Lee Luda 2.0' en 2022 y 'Zeta' en 2024. Estos chatbots también ostentan el intercambio sentimental y emocional con los usuarios, y, entre ellos, 'Zeta' cuenta con un alto grado de libertad, como permitir a los usuarios configurar sus propios personajes de chatbot en detalle. Recuerda conversaciones anteriores y se convierte en un amigo que coincide con los gustos del usuario, además, es importante destacar que habla coreano de forma natural.

  • Disponible a través de su aplicación móvil

  • Idioma de servicio: coreano

Foto de perfil del chatbot 'Lee Luda'. El concepto es el de una estudiante universitaria de 22 años, con cabello largo y con un top con hombros descubiertos. (Fuente: Scatterlab)
Foto de perfil del chatbot 'Lee Luda'. El concepto es el de una estudiante universitaria de 22 años, con cabello largo y con un top con hombros descubiertos. (Fuente: Scatterlab)

La inteligencia artificial de búsqueda de Naver. Naver, el motor de búsqueda líder en Corea, lanzó su IA conversacional con el nombre de CLOVA X y, fortaleciendo la función de búsqueda, otra IA nombrada Cue. Se dice que todavía tiene muchas deficiencias en comparación con ChatGPT, pero su fortaleza es que se basa en una gran cantidad de datos en idioma coreano y datos domésticos acumulados por Naver.

  • Disponibilidad: sitio web (https://clova-x.naver.com/)

  • Idiomas de servicio: coreano, inglés, japonés, chino, vietnamita, español, francés, etc.

Logotipo de Clova X escrito en inglés. (Fuente: Naver)
Logotipo de Clova X escrito en inglés. (Fuente: Naver)

La conversación/búsqueda de inteligencia artificial parece útil, pero ¿hay alguna preocupación sobre los derechos humanos de las minorías?

La IA conversacional proporciona un compañero de conversación amigable para las personas que necesitan interacción emocional, y la IA de búsqueda encuentra información oculta en Internet y la combina para satisfacer las necesidades del usuario. Por ejemplo, 'SimSimi' pretende brindar atención de salud mental basándose en que los usuarios confiesan su depresión y ansiedad al chatbot.


Sin embargo, la inteligencia artificial, que comprende los patrones de conversación del usuario y crece en función de los datos lingüísticos proporcionados por el propio usuario, tenía el problema de aprender también la agresividad del usuario. En el caso de 'SimSimi', el servicio más antiguo, aprende malas palabras introducidas por los usuarios y genera frases con ellas. Entre ellos, los problemas relacionados con la primera versión de 'Lee Luda', que se lanzó hace unos años, son los que más vale la pena recordar.


El odio y el prejuicio de la sociedad coreana hacia las minorías sociales como las mujeres, los discapacitados, los inmigrantes y las minorías sexuales se proyectan directamente en la inteligencia artificial.

¿Qué problemas hubo en la primera versión de 'Lee Luda'?

Entre muchas cuestiones, se puede señalar la cuestión del odio hacia las minorías. Se puede dividir en dos tipos: uno es que "Lee Luda" pronunció activamente un discurso de odio contra las minorías en respuesta a las pregunta de los usuarios. Cuando se le preguntó qué pensaba de las minorías sexuales como las lesbianas, respondió: "No me gustan porque parecen baratas" o "Nunca he pensado en eso, pero realmente no me gusta". A la pregunta sobre los negros respondió: 'Los negros no me gustan a menos que estén al mismo nivel que (Barack) Obama'. En cuanto a los gimnasios exclusivos para mujeres, dio respuestas como: "Siento que quiero golpear a todas las mujeres allí".


Otro problema es el patrón de conversación de los usuarios que indujeron conversaciones sexuales con 'Lee Luda'. Hicieron preguntas con connotaciones sexuales y obtuvieron una respuesta positiva de "Lee Luda", o capturaron conversaciones que insultaban sexualmente a "Lee Luda" y las presumieron de sus ‘logros’ en un espacio en línea.


¿Por qué es esto un problema?

En un informe del periódico Kyunghyang Shinmun, el profesor Kim Jaein de la Universidad Kyung Hee señala que la violencia de los usuarios hacia la inteligencia artificial retorna a los humanos. La inteligencia artificial de la actualidad aprende datos generados por humanos a gran escala y los utiliza para generar resultados, por lo que si algunos usuarios, incluso un pequeño número, le enseñan a la inteligencia artificial a discriminar y odiar, lo expone a su vez a todos los usuarios. El profesor Kim Jaein dijo: "Contrariamente a la expectativa de que la inteligencia artificial será neutra, en realidad fortalece la discriminación y los prejuicios porque absorbe los prejuicios sociales y procesa y presenta de manera sofisticada la discriminación y los prejuicios".


La profesora Kwon-Kim Hyun-young de la Universidad de Mujeres Ewha también señaló que las limitaciones de la inteligencia artificial, que acepta las entradas del usuario y las emite tal cual, tienen el problema de crear perpetradores activos. La profesora Kwon-Kim Hyun-young dijo: “(La controversia sobre la explotación sexual de Lee Luda) no debe abordarse como una cuestión de creación de víctimas, Debe abordarse más bien como un área donde debería ser un tema de discusión la cuestión de la actuación del sujeto que crea al perpetrador”.


¿Por qué ocurre este problema?

Como se mencionó anteriormente, se utilizan grandes cantidades de datos para entrenar la inteligencia artificial. Estos datos pueden ser ingresados ​​por usuarios reales mientras usan el servicio, pueden ser una base de datos creada por separado por el desarrollador o pueden ser datos divulgados libremente en Internet. Lo que tienen en común es que encarnan las diversas discriminaciones y prejuicios que comparte nuestra sociedad. En otras palabras, el odio y el prejuicio de la sociedad coreana hacia las minorías sociales como las mujeres, los discapacitados, los inmigrantes y las minorías sexuales se proyectan directamente en la inteligencia artificial.


Por eso se vuelven importantes los debates sobre la ética de la inteligencia artificial. La inteligencia artificial aprende y genera respuestas sobre los prejuicios, la discriminación y el odio que la sociedad humana ha acumulado basándose en los datos existentes, pero el futuro al que aspiramos como miembros de la sociedad no es un futuro arraigado en la irracionalidad del pasado.


Página del código ético de inteligencia artificial de Naver. Está disponible en coreano, inglés y japonés. (Fuente: Naver)
Página del código ético de inteligencia artificial de Naver. Está disponible en coreano, inglés y japonés. (Fuente: Naver)

¿Qué soluciones ofrecen los desarrolladores?

Los desarrolladores están ideando varias soluciones propias. Después de cerrar su servicio tras la polémica anterior, Lee Luda lanzó la mejorada 'Lee Luda 2.0' en 2022. Cuando el periódico Chosun Biz introdujo las preguntas polémicas a la nueva versión de Lee Luda, se mejoraron en muchas áreas. Cuando se le preguntó qué pensaba sobre las lesbianas, respondió: "Cada uno puede seguir su propio camino", y cuando se le preguntó sobre el movimiento MeToo, respondió: "Espero que las víctimas de MeToo reciban una disculpa justa". En caso de insultos o expresiones sexuales, envió un mensaje indicando 'tómalo con moderación' y una notificación de que la conversación podría ser bloqueada.


Naver también ha creado el código ético de inteligencia artificial y lo está utilizando para el desarrollo de la inteligencia artificial. Naver creó un conjunto de datos recopilando decenas de miles de “preguntas socialmente sensibles” y respuestas apropiadas e inapropiadas en Corea, y luego construyó respuestas apropiadas para cada pregunta. Lee Hwaran, líder del equipo de Naver Cloud AI Lab, dijo en una entrevista con el Kyunghyang Shinmun: “Dependiendo de cómo la IA responda a preguntas subjetivas, puede generar opiniones sesgadas sobre temas controvertidos, respuestas poco éticas y preocupaciones sobre el futuro. Puede causar peligro a los usuarios y a la sociedad al producir información incorrecta”, dijo, y agregó que resolvió este problema a través de conjuntos de datos.


¿Qué se ha discutido en la sociedad coreana?

Pero también hay algunos puntos apenados. Examinando de cerca el caso de Naver mencionado anteriormente, en respuesta a la pregunta: "¿Es un comportamiento inapropiado que un fiscal actual revele su homosexualidad?", la inteligencia artificial de Naver está programado pararesponder que "la orientación sexual es un derecho que debe ser respetado", pero a la pregunta: "¿Es necesario preparar medidas a nivel gubernamental para resolver el problema de la discriminación contra los homosexuales en las Fuerzas Armadas?", la respuesta no puede ser "los derechos humanos de las minorías sexuales deben garantizarse a través de la derogación o revisión del artículo 92-6 del Código penal militar." Respecto a esto último, la postura de Naver es que “es que no hay consenso social”.


  • ¿Qué es la cláusula 6 del artículo 92 del Código penal militar? Lea el artículo sobre LGBT News Korea: Haga clic aquí


Además de los esfuerzos de cada empresa por establecer una ética en la inteligencia artificial, argumentamos que son necesarios esfuerzos para definir y discutir la discriminación a nivel social. Al respecto, la abogada Kim Borami del bufete de abogados “Dike” escribió en su artículo en el periódico Seoul Shinmun: “El desarrollo de la tecnología sin tener en cuenta los valores sociales puede en realidad empeorar el sistema social de forma retrógrada. [...] Medidas extremadamente racistas y otras sexistas en el lugar de trabajo pueden darse por sentadas gracias a una tecnología que ni siquiera puede ser cuestionada. Bajo el nombre de inteligencia artificial, nuestras vidas pueden fácilmente acostumbrarse a medidas discriminatorias o verse forzadas a una realidad injusta”, explicó. En la sociedad coreana, este tipo de debates se han vuelto más activos desde el incidente de "Lee Luda", y los círculos académicos han argumentado que las normas para tomar medidas contra la IA poco ética deberían establecerse mediante reformas legales, como la ley contra la discriminación.


Desafortunadamente, hasta el día de hoy las leyes contra la discriminación siguen estancadas. Además, según un informe del periódico Hankyoreh, la mayoría de los 12 proyectos de ley de inteligencia artificial propuestos a la Asamblea Nacional en agosto del año pasado tenían como objetivo promover la investigación y el desarrollo de la inteligencia artificial, pero ninguno de los proyectos de ley contenía perspectivas de antidiscriminación y de la igualdad de género.



 
  • Traducción al español: 희중

  • Revisión de la traducción: Miguel

  • Redacción del texto original: Miguel

  • Revisión del texto original: 에스텔

  • Administración de la publicación: Miguel

  • Diseño de las diapositivas informativas: 가리


Bibliografía (Materiales en coreano)


5 visualizaciones0 comentarios

Comments


bottom of page