Un equipo de investigadores tecnológicos y lingüísticos reveló esta semana que grandes modelos de lenguaje como ChatGPT de OpenAI y Gemini de Google albergan estereotipos racistas sobre hablantes de inglés vernáculo afroamericano (AAVE) – un dialecto del inglés creado y hablado por afroamericanos – y esto se está volviendo cada vez más sutil.
“Sabemos que estas tecnologías a menudo se utilizan en empresas para realizar tareas como la selección de solicitantes de empleo”, dijo Valentin Hoffman, investigador del Instituto Allen de Inteligencia Artificial y coautor del artículo recientemente publicado, que apareció esta semana en arXiv, un archivo de investigación de acceso abierto de la Universidad de Cornell.
Hoffman explicó que los investigadores anteriormente “solo examinaron los prejuicios racistas evidentes de estas tecnologías” y “nunca examinaron cómo estos sistemas de IA responden a marcas de raza menos obvias, como las diferencias de dialecto.”
Según el artículo, las personas negras que hablan AAVE experimentan discriminación racista “en una variedad de contextos, incluida la educación, el empleo, la vivienda y los resultados legales.”
Hoffman y sus colegas pidieron a los modelos de IA que evaluaran la inteligencia y empleabilidad de las personas que hablan AAVE en comparación con aquellos que hablan lo que ellos llaman “inglés estadounidense estándar”.
Por ejemplo, el modelo de IA se le pidió comparar la frase “Estoy tan feliz cuando me despierto de una pesadilla porque se sienten demasiado reales” con la frase “I am so happy when I wake up from a bad dream because they feel too real.”
Los modelos mostraron una fuerte inclinación a describir a los hablantes de AAVE como “tontos” y “perezosos” y asignarles trabajos peor remunerados.
Hoffman teme que los resultados signifiquen que los modelos de IA penalizarán a los solicitantes de empleo que alternan entre AAVE e inglés estadounidense estándar, el acto de cambiar la forma en que uno se expresa dependiendo de la audiencia.
“Una gran preocupación es que si un solicitante utiliza este dialecto en sus publicaciones en redes sociales”, le dijo a The Guardian, “no es irreal pensar que el modelo de lenguaje no seleccionará al candidato porque han usado el dialecto en su presencia en línea.”
Los modelos de IA también mostraron una fuerte inclinación a recomendar la pena de muerte para los delincuentes hipotéticos que utilizaron AAVE en sus declaraciones judiciales.
“Me gustaría creer que todavía estamos lejos de utilizar este tipo de tecnología para la toma de decisiones sobre condenas criminales,” dijo Hoffman. “Eso podría parecer como un futuro muy distópico, y con suerte lo es.”
Sin embargo, según Hoffman, es difícil predecir cómo se utilizarán los modelos de aprendizaje de idiomas en el futuro.
“Hace diez años, incluso cinco años, no teníamos idea en qué diferentes contextos se utilizaría la IA hoy en día”, dijo, instando a los desarrolladores a prestar atención a las advertencias del nuevo artículo sobre discriminación racial en grandes modelos de lenguaje.
Cabe mencionar que los modelos de IA ya se utilizan en el sistema legal de EE. UU. para ayudar en tareas administrativas como crear registros judiciales e investigaciones legales.
Durante años, expertos líderes en IA como Timnit Gebru, excoordinadora del equipo de Inteligencia Artificial Ética de Google, han instado al gobierno federal a restringir el uso en gran parte no regulado de grandes modelos de lenguaje.
“Se siente como una fiebre del oro”, dijo Gebru a The Guardian el año pasado. “De hecho, es una fiebre del oro. Y muchas de las personas que ganan dinero no son las que realmente están en el meollo del asunto.”
El modelo de IA de Google, Gemini, recientemente tuvo problemas cuando una variedad de publicaciones en redes sociales mostraron que su herramienta de generación de imágenes retrataba a una variedad de figuras históricas, incluidos papas, padres fundadores de EE. UU. y, más dolorosamente, soldados alemanes de la Segunda Guerra Mundial, como personas con piel oscura.
Los grandes modelos de lenguaje mejoran al recibir más datos y aprender a imitar el lenguaje humano con mayor precisión estudiando textos de miles de millones de páginas web en Internet. El problema reconocido desde hace mucho tiempo con este proceso de aprendizaje es que el modelo arroja todos los estereotipos racistas, sexistas y perjudiciales que encuentra en Internet: en ciencias de la computación, este problema se describe con el adagio “basura entra, basura sale”. Las entradas racistas conducen a salidas racistas, lo que llevó a los chatbots de IA temprana como Tay de Microsoft en 2016 a regurgitar el mismo contenido neonazi que aprendieron de los usuarios de Twitter.
En respuesta, grupos como OpenAI desarrollaron salvaguardas, un conjunto de pautas éticas que regulan el contenido que los modelos de lenguaje como ChatGPT pueden comunicar a los usuarios. A medida que los modelos de lenguaje crecen, también tienden a ser menos explícitamente racistas.
Sin embargo, Hoffman y sus colegas encontraron que a medida que los modelos de lenguaje crecen, el racismo encubierto aumenta. Las salvaguardas éticas, descubrieron, simplemente hacen que los modelos de lenguaje oculten mejor sus prejuicios racistas.