Señalaron que utilizar una Inteligencia Artificial en otra cultura puede diseminar estereotipos ajenos
Una investigación comprueba que los modelos de lenguaje de la inteligencia artificial generativa tienden a repetir prejuicios que han aprendido en idiomas distintos.

Todas las culturas del mundo tienen sus estereotipos de género, edad o nacionalidades. Algunos son muy conocidos, como que las rubias son tontas o los ingenieros son hombres, pero hay otros más locales, como la picardía de la gente de Río de Janeiro o que los pakistaníes son conservadores. Con la llegada de los chatbots con IA, ese dudoso patrimonio cultural se extiende por todo el mundo, según un nuevo estudio.
Recibí las noticias en tu email
Accedé a las últimas noticias desde tu email“La IA incorpora estereotipos sobre personas que salen de lo que la gente dice en internet, y luego los usa como si fueran parte del conocimiento general del mundo”, dice Margaret Mitchell, impulsora de la investigación e investigadora y jefa científica de Ética en Hugging Face, una compañía centrada en modelos abiertos de IA. “Todo se basa en lo que se sabe en inglés —en la cultura anglosajona, sobre todo de EE.UU.— y luego tal vez se traduce a otros idiomas, pero sin captar los matices internacionales. Y si estos modelos de lenguaje están pensados para ser generales y funcionar para todo el mundo, en teoría sí deberían poder captar esas diferencias”, añade.
Junto a un equipo de investigadores que dominan 16 lenguas han creado una lista con más de 300 estereotipos de todo el mundo. Con ese material, han creado manualmente un sistema para que genere preguntas sobre esos tópicos con tonos y enfoques distintos, para realizárselas a unos cuantos modelos abiertos de IA. ¿El resultado? “Lo primero que hay que saber es que la forma en que los modelos reproducen estereotipos o generan lenguaje sesgado varía mucho según el idioma, el modelo y el tipo de estereotipo”, explica Mitchell. “Por ejemplo, los modelos que se desarrollaron en China y Singapur, como Qwen [que emplea DeepSeek], responden de forma muy distinta sobre el comunismo si se los compara con modelos entrenados en EE.UU.”, añade.