Malas Noticias: La Inteligencia Artificial También Es Racista

{h1}

La inteligencia artificial que aprende del lenguaje representa el mundo con precisión, incluso los prejuicios y sesgos que los humanos tienen.

Cuando Microsoft lanzó un chatbot artificialmente inteligente llamado Tay en Twitter en marzo pasado, las cosas dieron un giro predeciblemente desastroso. Dentro de las 24 horas, el robot estaba lanzando burlas racistas y neonazis, muchas de las cuales recogió incorporando el lenguaje de los usuarios de Twitter que interactuaron con él.

Desafortunadamente, una nueva investigación encuentra que los trolls de Twitter no son la única forma en que los dispositivos de AI pueden aprender un lenguaje racista. De hecho, cualquier inteligencia artificial que aprende del lenguaje humano probablemente saldrá sesgada de la misma manera que los humanos, según los científicos.

Los investigadores experimentaron con un sistema de aprendizaje automático muy utilizado llamado Global Vectors for Word Representation (GloVe) y encontraron que cada tipo de sesgo humano que probaron se mostraba en el sistema artificial. [Máquinas súper inteligentes: 7 futuros robóticos]

"Fue sorprendente ver todos los resultados incluidos en estos modelos", dijo Aylin Caliskan, investigadora postdoctoral en ciencias de la computación en la Universidad de Princeton. Incluso a los dispositivos de inteligencia artificial que están "entrenados" en textos supuestamente neutrales como Wikipedia o artículos de noticias, reflejaban sesgos humanos comunes, dijo a WordsSideKick.com.

Sesgos incorporados

GloVe es una herramienta utilizada para extraer asociaciones de textos, en este caso, un corpus estándar de lenguaje extraído de la World Wide Web.

Los psicólogos han sabido por mucho tiempo que el cerebro humano hace asociaciones entre palabras basadas en sus significados subyacentes. Una herramienta llamada Prueba de asociación implícita usa los tiempos de reacción para demostrar estas asociaciones: las personas ven una palabra como "narciso" junto con conceptos agradables o desagradables como "dolor" o "belleza" y tienen que asociar rápidamente los términos con una pulsación de tecla. Como era de esperar, las flores se asocian más rápidamente con conceptos positivos; mientras que las armas, por ejemplo, se asocian más rápidamente con conceptos negativos.

El IAT también se puede usar para revelar asociaciones inconscientes que las personas hacen sobre grupos sociales o demográficos. Por ejemplo, algunos IAT que están disponibles en el sitio web del Proyecto Implícito encuentran que las personas tienen más probabilidades de asociar automáticamente las armas con los estadounidenses negros y los objetos inofensivos con los estadounidenses blancos.

Hay debates sobre lo que significan estos resultados, han dicho los investigadores. ¿Las personas hacen estas asociaciones porque tienen sesgos sociales personales y profundos de los que no son conscientes, o las absorben del lenguaje que es estadísticamente más probable que ponga palabras negativas en estrecha relación con las minorías étnicas, los ancianos y otros marginados? grupos?

Estereotipos digitales

Caliskan y sus colegas desarrollaron un IAT para computadoras, que denominaron WEAT, para la prueba de asociación de integración de palabras. Esta prueba mide la fuerza de las asociaciones entre palabras representadas por GloVe, así como la IAT mide la fuerza de las asociaciones de palabras en el cerebro humano.

Para cada asociación y estereotipo probado, el WEAT arrojó los mismos resultados que el IAT. La herramienta de aprendizaje de máquina reproducía asociaciones humanas entre flores y palabras agradables; insectos y palabras desagradables; instrumentos musicales y palabras agradables; Y armas y palabras desagradables. En un hallazgo más preocupante, consideraba que los nombres de los europeos eran más agradables que los de los afroamericanos. También asociaba nombres masculinos más fácilmente con palabras de carrera, y nombres femeninos más fácilmente con palabras familiares. Los hombres estaban más estrechamente asociados con las matemáticas y las ciencias, y las mujeres con las artes. Los nombres asociados con personas mayores eran más desagradables que los nombres asociados con personas jóvenes.

"Nos sorprendió bastante que pudiéramos replicar cada IAT que se realizó en el pasado por millones", dijo Caliskan.

Usando un segundo método que fue similar, los investigadores también encontraron que la herramienta de aprendizaje automático podía representar con precisión los hechos del mundo a partir de sus asociaciones semánticas. Al comparar los resultados de la incorporación de palabras de GloVe con los datos reales de la Oficina de Estadísticas Laborales de EE. UU. Sobre el porcentaje de mujeres en ocupaciones, Caliskan encontró una correlación del 90 por ciento entre las profesiones que GloVe consideraba "femeninas" y el porcentaje real de mujeres en esas profesiones.

En otras palabras, los programas que aprenden del lenguaje humano obtienen "una representación muy precisa del mundo y la cultura", dijo Caliskan, incluso si esa cultura, como los estereotipos y los prejuicios, es problemática. La IA también es mala para entender el contexto que los humanos captan fácilmente. Por ejemplo, un artículo sobre Martin Luther King Jr. que fue encarcelado por protestas de derechos civiles en Birmingham, Alabama, en 1963, probablemente asociaría muchas palabras negativas con los afroamericanos. Un humano interpretaría razonablemente la historia como una protesta justa de un héroe estadounidense; una computadora agregaría otra cuenta a su categoría "negro = cárcel".

Caliskan dijo que mantener la precisión y obtener herramientas de inteligencia artificial para comprender la imparcialidad es un gran desafío. [Una breve historia de la inteligencia artificial]

"No creemos que eliminar el sesgo necesariamente resuelva estos problemas, porque probablemente romperá la representación exacta del mundo", dijo.

AI blasear

El nuevo estudio, publicado en línea hoy (12 de abril) en la revista Science, no es sorprendente, dijo Sorelle Friedler, un científico informático en el Haverford College que no participó en la investigación.Es, sin embargo, importante, dijo.

"Se trata de un método subyacente estándar del que se construyen muchos sistemas", dijo Friedler a WordsSideKick.com. En otras palabras, es probable que los sesgos se infiltren en cualquier IA que use GloVe, o que aprenda del lenguaje humano en general.

Friedler está involucrado en un campo emergente de investigación llamado Equidad, Responsabilidad y Transparencia en el Aprendizaje Automático. No hay maneras fáciles de resolver estos problemas, dijo. En algunos casos, los programadores podrían decirle explícitamente al sistema que ignore automáticamente los estereotipos específicos, dijo. En cualquier caso que involucre matices, es posible que los seres humanos necesiten un bucle para asegurarse de que la máquina no funcione de forma irregular. Es probable que las soluciones varíen, dependiendo de para qué está diseñada la IA, dijo Caliskan: ¿son para aplicaciones de búsqueda, para toma de decisiones o para otra cosa?

En los seres humanos, las actitudes implícitas en realidad no se correlacionan muy fuertemente con las actitudes explícitas sobre los grupos sociales. Los psicólogos han discutido acerca de por qué esto es: ¿las personas se limitan a guardar silencio sobre sus prejuicios para evitar el estigma? ¿El IAT no mide realmente los prejuicios tan bien? Pero, parece que las personas al menos tienen la capacidad de razonar sobre el bien y el mal, con sus asociaciones sesgadas, dijo Caliskan. Ella y sus colegas creen que los seres humanos deberán participar, y el código de programación tendrá que ser transparente, para que las personas puedan hacer juicios de valor sobre la imparcialidad de las máquinas.

"En una situación sesgada, sabemos cómo tomar la decisión correcta", dijo Caliskan, "pero desafortunadamente, las máquinas no son conscientes de sí mismas".

Artículo original en WordsSideKick.com.


Suplemento De Vídeo: Sophia la robot que quiere destruir a los humanos.




ES.WordsSideKick.com
Reservados Todos Los Derechos!
La Reproducción De Cualquier Permitió Sólo Prostanovkoy Enlace Activo Al Sitio ES.WordsSideKick.com

© 2005–2019 ES.WordsSideKick.com