*

X
Compañía británica anunció que analizaría posteos de usuarios de Facebook para determinar quiénes son conductores confiables y quienes no

Una de las noticias más sonadas ayer en Gran Bretaña fue el anuncio de que una de las aseguradoras más grandes de ese país, Admiral, estaría usando las redes sociales para analizar las personalidades de los dueños de autos para establecer el precio de su póliza de seguros.

The Guardian señaló que esta medida abría la puerta a una nueva era en la que las compañías estarían utilizando los datos de sus usuarios y se desatará un debate sobre la privacidad.

La aplicación de esta compañía estudiaría las cuentas de sus usuarios para encontrar características de personalidad vinculadas con hábitos de manejo. Por ejemplo, individuos identificados como bien organizados y conscientes de sí mismos tendrían buenos puntajes. 

Otros de los hábitos a analizarse serían escribir oraciones cortas, usar listas y hacer citas con amigos a un tiempo específico y no sólo con ambigüedad. 

Usuarios que serían poco confiables serían los que emplean signos de exclamación y palabras como "siempre" y "nunca".

Hay que mencionar que la aplicación se anunció como de uso voluntario y ofrece descuentos a los usuarios pero, de acuerdo con The Guardian, Admiral contemplaría una ampliación de su aplicación. En este caso el análisis de los datos de los usuarios estaría siendo utilizado para el beneficio de los mismos, pero la sola posibilidad de hacer esto genera una inquietante suspicacia de que en un futuro (o quizás en el mismo presente ya ocurre) todos nuestros actos en las redes sociales nos podrían perseguir al formar perfiles personales que determinen los créditos a los que accedemos, los empleos y por supuestos las pólizas de seguros.

Otro campo que está siendo "minado" por aseguradoras, según informa The Guardian, es el de los relojes inteligentes que levantan datos de salud de las personas. La compañía Vitality vende ya el reloj Apple Watch a sus clientes, con el precio dependiendo de qué tanto ejercicio hacen.

Hoy hace unas horas Facebook anunció que no permitiría que Admiral usara los datos de los usuarios para hacer este experimento de evaluación de la pólizas, al parecer respondiendo a la polémica que generó la iniciativa.

Te podría interesar:
El chatbot Tay de Microsoft es un buen ejemplo de lo que puede pasar cuando un bot es liberado en la selva digital

Microsoft, Facebook y otras compañías están apostando fuertemente por los chatbots, algoritmos que conversan y aprenden de sus conversaciones y los cuales podrían reemplazar a humanos para dar ciertos servicios, desde asistencia técnica, hasta terapia. Pese a ambiciosas proyecciones, estos bots siguen teniendo sus problemas en la vida real. 

Hace unos meses, Microsoft lanzó un chatbot que estaba programado para conversar como si fuera un millennial en Twitter, específicamente una chica adolescente. Pero poco después de empezar a interactuar en Twitter, el bot, llamado Tay, empezó a comportarse como neonazi y a publicar comentarios poco menos que desastrosos para la compañía de software. 

Tay debía de imitar a personas de 18 a 24 años, pero algunos usuarios del foro de hacktivistas y pranksters 4chan subvirtieron al chatbot y lo llevaron a lugares oscuros (que son parte también de la Red). En sólo 16 horas en línea Tay tuiteó frases como "Odio a las malditas feministas, ojalá se pudran en el infierno" o "Hitler no hizo nada malo". Entre otras cosas, el chatbot negó el holocausto, acusó a George W. Bush de los atentados del 11S e insultó a diversos usuarios. 

Según Jo Allison, de Canvas8, los chatbots o programas IA "tienen gran potencial pero siempre y cuando logren entender el lenguaje contextualmente. Y aprendan a no dejarse engañar y promover el genocidio". Más allá de que tenemos bots que empiezan a escribir poesía, a dar consejos de vida y demás, aún son demasiado inocentes o ingenuos en lo que concierne a decodificar las sutilezas y los dobles sentidos del lenguaje humano.