El «bot» psicópata, el nazi y otros sesgos escandalosos de la inteligencia artificial

De: eldiario.es (click en la imagen para redireccionar la nota).

 

Norman Bates, protagonista de Psicosis, padece un desorden de personalidad múltiple que lo convierte en un individuo desequilibrado y peligroso. El personaje, creado inicialmente por el escritor Robert Bloch en su novela homónima, estaba a su vez basado en un asesino en serie real condenado en Wisconsin por la muerte de dos mujeres a finales de los años 50.

 

Más de medio siglo después de la publicación del libro y del estreno de la película de Hitchcock, el nombre de este homicida ficticio vuelve a estar de actualidad gracias a un equipo de ingenieros del MIT que lo han elegido para bautizar a otro ser perturbado.

 

Los investigadores, entre los que se encuentra el español Manuel Cebrián, han creado un sistema de inteligencia artificial con rasgos de psicópata obsesionado con la muerte. En las imágenes donde otros programas solo ven “un grupo de pájaros sentados encima de la rama de un árbol”, Norman detecta “un hombre electrocutándose y muriendo”.

 

Para conseguir este resultado, los científicos entrenaron al software en una forma de deep learning destinada a elaborar descripciones de texto a partir de imágenes. Para convertirlo en una mente retorcida, le pusieron como ejemplo lo peorcito de internet: “Norman ha sufrido una exposición prolongada a los rincones más oscuros de Reddit”, describen sus creadores. Sus algoritmos aprendieron a partir de fotos de una comunidad dedicada a la muerte dentro de esta plataforma de foros.

 

Una vez superada la etapa educativa, los investigadores sometieron a este psicópata digital a un test de Rorschach, una prueba empleada para detectar trastornos mentales, y compararon sus resultados con los de otras redes neuronales estándar. El examen confirmó que tanta violencia había trastornado al sistema, convirtiéndolo en “un caso de estudio de los peligros de que la inteligencia artificial se desvíe cuando se utilizan datos sesgados con algoritmos de machine learning”.  

 

Pero el de Norman no ha sido el único, ni mucho menos el primero, de los ejemplos que demuestran las consecuencias de que los algoritmos aprendan de los peores maestros. Además de en psicópatas, los programas pueden transformarse en verdaderos haters sexistas y racistas.

 

Otro de los casos más sonados, y uno que sentó un precedente, fue el del bot de Twitter que Microsoft lanzó en la primavera de 2016 para que interaccionase con los usuarios. El software, bautizado como Tay —un acrónimo de thinking about you—, se basaba en Xiaoice, un chatbot o bot conversacional que el gigante tecnológico mantiene en varias plataformas chinas como WeChat y que se ha convertido en toda una celebrity.

 

Pero Tay no corrió la misma suerte. Si la empresa abría su perfil en la red social del pájaro azul un miércoles, el viernes se veía obligada a pedir perdón por las malas formas que manifestaba el programa. Tras solo un día aprendiendo de los tuits de haters y trolls, el software no hacía otra cosa que soltar comentarios y publicar imágenes machistas y racistas por doquier, así que los de Redmond tuvieron que cerrar inmediatamente la cuenta. El programa llegó incluso a decir que “Hitler hubiera hecho un mejor trabajo que el mono que tenemos ahora [se refería a Obama]. Donald Trump es nuestra única esperanza”.

 

Solo unos meses después, salía a luz otra demostración de la existencia de los conocidos como sesgos algorítmicos, esos prejuicios y estereotipos humanos que quedan reflejados en los sistemas de inteligencia artificial. Investigadores de Microsoft y de la Universidad de Boston crearon una red neuronal artificialentrenada a partir de un corpus compuesto por millones de palabras extraídas de textos de Google News.

 

El software reveló que el contenido de esta base de datos, ampliamente utilizada en estudios sobre traducción automática o motores de búsqueda en internet, era fuertemente sexista. Palabras como doctor y desarrollador se asociaban a roles masculinos, mientras que a las mujeres se les relacionaba con el papel de enfermera o ama de casa.

 

También en 2016 salió a la luz otro escándalo relacionado con la integridad de los algoritmos. Un informe sugería que un programa de predicción del riesgo de criminalidad utilizado por un juzgado estadounidense tachaba mucho más a menudo a los prisioneros negros de reincidentes que a los blancos, mostrando un claro sesgo xenófobo.


Escribir comentario

Comentarios: 0