*

X
Reed Hastings de Netflix cree que en el futuro podremos consumir entretenimiento personalizado tomando una pastilla

El CEO de la compañía que revolucionó el consumo de entretenimiento cree que en las siguientes décadas el entretenimiento podría tomar un cauce farmacológico. 

Reed Hastings, CEO de Netflix, recientemente exploró el futuro del entretenimiento en la conferencia "WSJDLive". Hastings dijo que su visión se inclina a un entretenimiento farmacológico, incluso más que a uno basado en la realidad virtual.

"En veinte o cincuenta años será perfectamente viable tomar una pastilla azul personalizada que te haga tener un viaje de una manera entretenida y luego una pastilla blanca que te regrese a la normalidad. Y si en 30 0 40 años la fuente del entretenimiento humano es farmacológica estaremos en aprietos". Hastings se refiere a su compañías, pero podríamos pensar que toda la humanidad (un poco al estilo Un mundo feliz, de Huxley). Pastillas de entretenimiento, pastillas de video, en las que podrás vivir directamente el entretenimiento que hoy vemos en una pantalla. Por supuesto la idea de Hastings evoca numerosas películas de ciencia ficción, desde Total RecallThe Matrix, o novelas como Vurt, de Jeff Noon. 

Hastings no explica cómo imagina que este entretenimiento farmacológico podría actuar en el cerebro. Quizás con fármacos que sean capaces de unirse a receptores individuales o quizás en un híbrido entre realidad virtual, estimulación craneal y métodos farmacológicos. 

Antes de que nos precipitemos, recordemos que la pastilla azul en The Matrix es la pastilla que nos regresa al sueño y nos mantiene en la cómoda ignorancia de la Matrix. Un entretenimiento como el que imagina Hastings seguramente nos mantendrá plácidamente sedados, como zombis, aunque en paraísos artificiales.

El chatbot Tay de Microsoft es un buen ejemplo de lo que puede pasar cuando un bot es liberado en la selva digital

Microsoft, Facebook y otras compañías están apostando fuertemente por los chatbots, algoritmos que conversan y aprenden de sus conversaciones y los cuales podrían reemplazar a humanos para dar ciertos servicios, desde asistencia técnica, hasta terapia. Pese a ambiciosas proyecciones, estos bots siguen teniendo sus problemas en la vida real. 

Hace unos meses, Microsoft lanzó un chatbot que estaba programado para conversar como si fuera un millennial en Twitter, específicamente una chica adolescente. Pero poco después de empezar a interactuar en Twitter, el bot, llamado Tay, empezó a comportarse como neonazi y a publicar comentarios poco menos que desastrosos para la compañía de software. 

Tay debía de imitar a personas de 18 a 24 años, pero algunos usuarios del foro de hacktivistas y pranksters 4chan subvirtieron al chatbot y lo llevaron a lugares oscuros (que son parte también de la Red). En sólo 16 horas en línea Tay tuiteó frases como "Odio a las malditas feministas, ojalá se pudran en el infierno" o "Hitler no hizo nada malo". Entre otras cosas, el chatbot negó el holocausto, acusó a George W. Bush de los atentados del 11S e insultó a diversos usuarios. 

Según Jo Allison, de Canvas8, los chatbots o programas IA "tienen gran potencial pero siempre y cuando logren entender el lenguaje contextualmente. Y aprendan a no dejarse engañar y promover el genocidio". Más allá de que tenemos bots que empiezan a escribir poesía, a dar consejos de vida y demás, aún son demasiado inocentes o ingenuos en lo que concierne a decodificar las sutilezas y los dobles sentidos del lenguaje humano.