*

El chatbot Tay de Microsoft es un buen ejemplo de lo que puede pasar cuando un bot es liberado en la selva digital

Microsoft, Facebook y otras compañías están apostando fuertemente por los chatbots, algoritmos que conversan y aprenden de sus conversaciones y los cuales podrían reemplazar a humanos para dar ciertos servicios, desde asistencia técnica, hasta terapia. Pese a ambiciosas proyecciones, estos bots siguen teniendo sus problemas en la vida real. 

Hace unos meses, Microsoft lanzó un chatbot que estaba programado para conversar como si fuera un millennial en Twitter, específicamente una chica adolescente. Pero poco después de empezar a interactuar en Twitter, el bot, llamado Tay, empezó a comportarse como neonazi y a publicar comentarios poco menos que desastrosos para la compañía de software. 

Tay debía de imitar a personas de 18 a 24 años, pero algunos usuarios del foro de hacktivistas y pranksters 4chan subvirtieron al chatbot y lo llevaron a lugares oscuros (que son parte también de la Red). En sólo 16 horas en línea Tay tuiteó frases como "Odio a las malditas feministas, ojalá se pudran en el infierno" o "Hitler no hizo nada malo". Entre otras cosas, el chatbot negó el holocausto, acusó a George W. Bush de los atentados del 11S e insultó a diversos usuarios. 

Según Jo Allison, de Canvas8, los chatbots o programas IA "tienen gran potencial pero siempre y cuando logren entender el lenguaje contextualmente. Y aprendan a no dejarse engañar y promover el genocidio". Más allá de que tenemos bots que empiezan a escribir poesía, a dar consejos de vida y demás, aún son demasiado inocentes o ingenuos en lo que concierne a decodificar las sutilezas y los dobles sentidos del lenguaje humano.