Tay, el bot inteligente de Microsoft que se volvió neonazi luego de unas horas en Twitter
Medios y Tecnología
Por: Jimena O. - 09/27/2016
Por: Jimena O. - 09/27/2016
Microsoft, Facebook y otras compañías están apostando fuertemente por los chatbots, algoritmos que conversan y aprenden de sus conversaciones y los cuales podrían reemplazar a humanos para dar ciertos servicios, desde asistencia técnica, hasta terapia. Pese a ambiciosas proyecciones, estos bots siguen teniendo sus problemas en la vida real.
Hace unos meses, Microsoft lanzó un chatbot que estaba programado para conversar como si fuera un millennial en Twitter, específicamente una chica adolescente. Pero poco después de empezar a interactuar en Twitter, el bot, llamado Tay, empezó a comportarse como neonazi y a publicar comentarios poco menos que desastrosos para la compañía de software.
Tay debía de imitar a personas de 18 a 24 años, pero algunos usuarios del foro de hacktivistas y pranksters 4chan subvirtieron al chatbot y lo llevaron a lugares oscuros (que son parte también de la Red). En sólo 16 horas en línea Tay tuiteó frases como "Odio a las malditas feministas, ojalá se pudran en el infierno" o "Hitler no hizo nada malo". Entre otras cosas, el chatbot negó el holocausto, acusó a George W. Bush de los atentados del 11S e insultó a diversos usuarios.
Según Jo Allison, de Canvas8, los chatbots o programas IA "tienen gran potencial pero siempre y cuando logren entender el lenguaje contextualmente. Y aprendan a no dejarse engañar y promover el genocidio". Más allá de que tenemos bots que empiezan a escribir poesía, a dar consejos de vida y demás, aún son demasiado inocentes o ingenuos en lo que concierne a decodificar las sutilezas y los dobles sentidos del lenguaje humano.