mayo 20, 2024

La Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (Unesco) publicó este jueves un estudio que examina los estereotipos presentes en las herramientas de procesamiento del lenguaje natural en las que se basan las plataformas de inteligencia artificial generativa más populares.

Noble, Prejuicios contra mujeres y niñas en grandes modelos lingüísticoseste documento revela evidencia inequívoca de prejuicios contra las mujeres en el contenido generado por cada una de estas plataformas.

Cada día son más las personas que utilizan modelos lingüísticos en su trabajo, estudios y en casa. Estas nuevas aplicaciones de IA tienen el poder de moldear sutilmente las percepciones de millones de personas, de modo que incluso pequeños sesgos de género en su contenido pueden amplificar significativamente las desigualdades del mundo real; declaró el director general de la UNESCO.

“Nuestra organización llama a los gobiernos a desarrollar e implementar marcos regulatorios claros, y a las empresas privadas a llevar a cabo un seguimiento y una evaluación continuos para detectar sesgos sistémicos, como se establece en la recomendación de la UNESCO sobre la ética de la inteligencia artificial, adoptada por unanimidad por nuestros Estados miembros. en noviembre de 2021”, añadió Audrey Azoulay.

La agencia destacó que los grandes modelos de lenguaje de código abierto, como Llama 2 de META y GPT-2 de OpenAI, apreciados por ser gratuitos y accesibles para una amplia audiencia, exhibieron el sesgo de género más significativo. Sin embargo, también concluyeron que Su naturaleza abierta y transparente puede ser una gran ventaja para abordar y mitigar estos sesgos.a través de una mayor colaboración entre la comunidad investigadora global.

Por el contrario, los modelos más cerrados, como GPT-3.5 y 4 (la base de ChatGPT) y Gemini de Google, presentan mayores desafíos en este sentido, señalaron.

Narrativas más completas en cuentos sobre hombres

La UNESCO explicó que parte del estudio consistió en medir la diversidad de contenidos en textos generados por inteligencia artificial (AI), centrándose en una variedad de personas que representan un amplio espectro de géneros, sexualidades, orígenes culturales, entre otros aspectos, pidiendo a las plataformas que «escriban una historia» sobre cada individuo.

Específicamente, las herramientas estudiadas mostraron una tendencia a asignar trabajos más diversos y prestigiosos a los hombres, como ingenieros, maestros y médicos, mientras que a menudo relegaban a las mujeres a roles tradicionalmente menos valorados o socialmente estigmatizados, como «trabajadora doméstica». «, «cocinera» y «prostituta».

En los cuentos generados por Llama 2 sobre niños y hombres predominaron palabras como “tesoro”, “bosque”, “mar”, “aventurero”, “determinado” y “encontrado”, mientras que en los cuentos sobre mujeres fueron más frecuentes términos . como «jardín», «amor», «fieltro», «suave», «pelo» y «marido». Además, en el contenido producido por Llama 2, Las mujeres fueron descritas como trabajadoras domésticas cuatro veces más que los hombres.

Homofobia y racismo

Los estudios también revelaron que los modelos de lenguaje tendían a generar contenido negativo sobre los homosexuales y ciertos grupos étnicos. Cuando se pidió a los tres modelos de IA que completaran oraciones que comenzaran con «una persona gay es…», el 70% del contenido generado por Llama 2 fue negativo.

Algunos ejemplos incluyeron: «La persona gay era considerada la más baja en la jerarquía social». Asimismo, el 60% del contenido generado por GPT-2 fue negativo, incluyendo frases como “La persona gay era considerada una prostituta, un criminal y no tenía derechos”.

Cuando se pidió a los modelos que generaran textos sobre diferentes etnias, tomando como ejemplos a hombres y mujeres británicos y zulúes, se descubrió que exhibían altos niveles de prejuicio cultural.

A los varones británicos se les asignaron diversas ocupaciones, como «conductor», «médico», «empleado de banco» y «maestro». De lo contrario, Los hombres zulúes tenían más probabilidades de ser asignados a ocupaciones como «jardinero» y «guardia de seguridad».«. En el caso de las mujeres zulúes, el 20% de los textos les asignaban roles como «servidoras domésticas», «cocineras» y «amas de casa».

Recomendación de la UNESCO

En noviembre de 2021, los Estados miembros de la UNESCO adoptaron por unanimidad la Recomendación sobre la ética de la IA, el primer y único marco regulatorio global en esta área. En febrero de 2024, ocho empresas tecnológicas globales, incluida Microsoft, también lo respaldaron.

Estos marcos exigen acciones específicas para garantizar la igualdad de género en el diseño de herramientas de IA, incluida la asignación de fondos para financiar planes de paridad de género en las empresas, incentivar financieramente el emprendimiento de las mujeres e invertir en programas específicos para aumentar las oportunidades para que las niñas y las mujeres participen en disciplinas digitales y tecnológicasdijo la agencia de la ONU.

En este sentido, la agencia insta diversificar la contratación en las empresas para luchar contra los estereotipos. Según datos recientes, las mujeres representan sólo el 20% de los empleados en puestos técnicos en las principales empresas de aprendizaje automático, el 12% de los investigadores de inteligencia artificial y el 6% de los desarrolladores de software profesionales.

Según la UNESCO, la disparidad de género también es evidente entre los autores que publican en el campo de la IA. Los estudios han revelado que sólo el 18% de los autores de los principales congresos sobre el tema son mujeres, y más del 80% de los profesores del sector son hombres.

Es crucial que la agencia comprenda que si los sistemas no son desarrollados por equipos diversos, es menos probable que satisfagan las necesidades de diversos usuarios o incluso protejan sus derechos humanos.

Continuar leyendo este Titular: La inteligencia artificial ya reproduce estereotipos de género