*

X
Tristan Harris revela cómo compañías de tecnología diseñan sus productos explotando vulnerabilidades psicológicas de los usuarios para hacerlos adictivos

Cada vez más personas empiezan a notar que la forma en la que consumimos las aplicaciones de la tecnología moderna es similar a como consumimos comida chatarra, a como fumábamos cigarrillos hace algunos años o a alguna otra droga. Una de estas personas es Tristan Harris, un ex ejecutivo de Google que ha fundado la compañía Time Well Spent, cuya misión es hacer notar a la gente y a las mismas compañías de tecnología que sus productos tienen efectos que fomentan conductas adictivas o poco conducentes a la felicidad, la tranquilidad, la sabiduría, etcétera.  

The Atlantic describe a Harris como un "binge breaker", alguien que corta un episodio de consumo adictivo. Harris conoce las compañías de tecnología desde adentro y mantiene que están diseñando sus productos con la intención expresa de hacerlos adictivos. Compara su iPhone con una de esas maquinas tragamonedas que se pueden ver flashear en los casinos. Es anfitrión de eventos en los que personas que checan hasta 150 veces su celular al día (algo harto común en nuestros días) se exponen a una vida alternativa en la que se involucran en actividades que les ayudan a desconectarse un poco de sus aparatos --como puede ser aprender a tejer.

Harris tiene un perfil muy particular: estudió ciencias informáticas en Stanford, trabajó un rato en Apple y luego hizo una maestría en el Persuasive Technology Lab de Stanford, el cual era manejado por el psicólogo B. J. Fogg y donde se empleaban principios de la psicología conductual al diseño de software. Esto es, aparatos y aplicaciones que tienen embebidos rasgos de psicología conductual para hacer que los productos persuadan a los usuarios de establecer comportamientos favorables para las compañías que los diseñan. Dicho a grosso modo un laboratorio de condicionamiento pavloviano en el cual, en vez de decir que los consumidores son como perros que reaccionan a campanas, se dice que los productos "inspiran" a los consumidores a tomar ciertas conductas. No debe sorprendernos que uno de los fundadores de Instagram es también exalumno de este laboratorio. Uno de los comportamientos que se analizaron en este laboratorio, según The Atlantic, es cómo otorgar un like instantáneo a una persona en el momento en el que sube una foto refuerza esta conducta, haciendo que sea más frecuente.

Un ejemplo de cómo los sitios y aplicaciones explotan nuestras necesidades emocionales y nuestros instintos es mencionado por Harris en torno a LinkedIn. Cuando esta red social fue lanzada, se creó un icono que visualmente representaba el tamaño de la red del usuario. Este icono detonaba la necesidad innata de la persona a buscar aprobación social, motivándola a conectarse con los demás para aumentar el tamaño de su icono. Las personas no querían parecer perdedores, aunque en ese entonces no había mucho que se pudiera hacer en esa red social al conectar con otros. En Facebook, por ejemplo, se deja ver a una persona que ya hemos leído su mensaje, lo cual nos presiona a que enviemos otro mensaje, activando nuestro sentido innato de reciprocidad social. Snapchat es aún más agresivo e informa a los usuarios que un amigo les está escribiendo un mensaje, lo cual obliga de alguna forma a no dar un paso en falso y terminar el mensaje.

Sin duda, el producto más agresivo y dominante de nuestra era es el smartphone, una especie de monolito omnisciente en esteroides:

Nuestra generación depende de sus teléfonos para tomar decisiones en el momento sobre con quién pasamos el tiempo, en qué pensamos, a quién debemos responder y qué es importante en nuestras vidas. Y si esto es a lo que le vas a terciar tus pensamientos (outsourcing), olvídate del implante cerebral. Este es el implante cerebral. Te refieres a él todo el tiempo.

Harris aprendió estas cosas en el programa de Fogg, del cual luego se salió, preguntándose en dónde queda la ética en estas tácticas de manipulación. Habiendo aprendido que existe esta intencionalidad en el diseño Harris se ha dedicado a exponer estas tácticas de persuasión, a las cuales compara con la forma en la que las compañías de comida chatarra introducen azúcar y grasa en su comida para fomentar comportamientos compulsivos. Facebook, Instagram, Twitter nos dan nuestras dosis de "recompensas variables" (descargas de dopamina) en la divisa de "likes".  

Por un rato Harris trabajó en Google, donde intentó promover valores éticos para rediseñar sus productos, pero dejó esta compañía luego de que no fueron muy bien tomadas sus recomendaciones.

A través de su compañía Time Well Spent, Harris intenta ahora generar conciencia dentro de las compañías de tecnología para hacer algo similar al movimiento de comida orgánica. Su idea es crear una especie de certificado para apps que promueven una calidad de vida y que se basen en principios éticos. Harris cree que la buena tecnología debería permitirnos ver a dónde se está yendo nuestro tiempo --por ejemplo, un teléfono que te alerte cuando lo has usado más de 10 veces en 1 hora o un sistema de correo que puede colocarse en modo de concentración y limitar los correos que se descargan hasta que has cumplido cierta tarea (con una posible interrupción en caso de una emergencia).

Tristan Harris es sin duda uno de los pioneros en este campo, junto con voces como Douglas Rushkoff y otros. El tema eventualmente puede ser tan importante en términos de salud como lo es hoy la comida chatarra en países con altos índices de obesidad y diabetes. A final de cuentas se trata de un problema ético, en el cual será necesario ver que la salud colectiva es más importante que el beneficio económico individual. Algo que parece muy lejano todavía.

Te podría interesar:
La forma en la que están programadas las plataformas en línea hace que cada uno de nosotros experimente una versión personalizada de la realidad, la cual nos mantiene aislados de versiones que desafían nuestras propias ideas.

En el día después de la votación del Brexit, el activista Tom Steinberg notó un hecho alarmante. Aunque más de la mitad de su país había votado a favor de abandonar la comunidad europea en su Facebook no podía encontrar ningún post sobre alguien que estuviera celebrando el Brexit.

Estoy activamente buscando personas que estén celebrando la victoria del Brexit, pero la burbuja de filtros es tan grande, se extiende incluso a la búsqueda personalizada de Facebook, que no puedo encontrar nadie que realmente esté feliz pese a que la mitad del país claramente está en estado júbilo hoy.

Steinberg incluso hizo un llamado a las personas que trabajan en Facebook para que detuvieran "este problema de una cámara de ecos" donde "tenemos países en los que una mitad simplemente no se entera de la otra mitad". Claro que el problema no puede detenerse por los empleados de Facebook, porque es parte del código más básico de Facebook, gobernado por su complejo algoritmo: darle a las personas más de lo que ya les gusta. Sin embargo, el pleito de Steinberg probó ser ominoso en el caso de Donald Trump, una elección en la que la mitad de un país estaba tan disociada de la otra que nunca espero que pudiera ganar.

Algo similar le pasó a Douglas Rushkoff, quien ha montado este excelente sitio para entender la nueva ecología mediática que ha hecho surgir un nuevo nacionalismo. Explica Rushkoff que el Internet: 

Se ha convertido en un bucle [loop] de retroalimentación que se auto-refuerza, cada elección que hacemos es cuidadosamente notada e integrada por los algoritmos que personalizan nuestros feeds de noticias, así aislándonos cada vez más en nuestras burbujas de filtros ideológicos. Ninguno de los miles de personas que aparecen en mi feed de Twitter apoyaron a Trump o al Brexit. Para aquellos que si lo hicieron, estoy seguro que lo contrario es verdad. 

El término "filter bubble" fue acuñado por el fundador de Upworthy, Eli Pariser en el 2011. "Tu burbuja de filtros es única, un universo de información personalizada para ti por este abanico de filtros". Desde hace algunos años, Erick Schmidt de Google ya había anticipado que "va a ser muy difícil que las personas vean o consuman algo que no haya sido de alguna forma hecho a la medida para ellos".

Actualmente la mayoría de los principales sitios de Internet no ofrecen ya una experiencia igual para todos los usuarios, cada uno se encuentra con una plataforma personalizada y optimizada para satisfacer su experiencia. Por ejemplo, la búsqueda de Google utiliza más de 200 señales para personalizar los resultados que arroja (incluso si no estás logged in en una cuenta de Google). Cada pregunta que le hacemos a Google, buscando que nos ayude a entender la realidad, recibe una respuesta sesgada a nuestros patrones previos de consumo de información.  

Nikki Usher Layser, de la Universidad de George Washington, habla de una nueva "mass self-communication",  (autocomunicación de masas), un entorno mediático en el que "la toma de decisiones autónoma" de los algoritmos define que historias vemos. "No podemos romper con el patrón si sólo consumimos información en línea a través de nuestros feed sociales". Somos como peces pero no en el mar sino en nuestra propia pecera con los otros peces que piensan como nosotros. 

Adam Curtis, en su extraordinario documental Hypernormalization, sugiere que esta burbuja de filtros es parte de todos los sistemas informáticos de la actualidad, consustancial al desarrollo del Big Data y la predicción de comportamientos. Una serie de sistemas de información en los que todos los usuarios constantemente reciben una versión de la realidad basada en lo que de antemano ya les gusta, creando pequeñas bolsas de realidad que sólo afirman las creencias preestablecidas y  los mantienen aislados de ideas que desafían sus nociones básicas (el axioma de los algoritmos es: if you liked that, you will love this). Esto hace que en cierta forma nuestra experiencia con la tecnología moderna sea la de un espejo, que tiende al narcisismo, e incluso a un narcótico: nos empachamos de nosotros mismos y quedamos sedados, aislados en el confort de nuestra burbuja algorítmicamente personalizada del mundo externo --un mundo externo que nos parece frustrante ya que no es como nosotros queremos, por lo cual mejor nos quedamos en la plácida y anestésica comodidad de nuestra versión de la realidad cuidadosamente curada por los algoritmos que conocen lo que nos gusta.

El peligro de esto es que al movernos en una ecología de información personalizada sólo reforzamos lo que ya somos y nos encontramos con información que pueda desafiar nuestra ideología. Adam Curtis ha sugerido que los algoritmos utilizados por los sistemas financieros y las grandes corporaciones digitales tienen programado en su núcleo la noción de evitar los riesgos, maximiza ganancias y mantener la ilusión de que el mundo es simple, por lo cual puede ser enmarcado en narrativas dualistas del tipo bueno o malo, me gusta o no me gusta. Los algoritmos mantienen el orden de lo mismo y nos protegen del caos y la incertidumbre o del enfrentamiento con lo desconocido. En otras palabras, las plataformas digitales han incorporado en sus programas el sistema neoliberal de una economía de crecimiento infinito y consumo de entretenimiento a manera de distracción de los sucesos políticos que desafían su versión de la realidad y que los podrían colocar en contra de este mismo sistema. Como explicó Mark Zuckerberg a una periodista la importancia de su news feed. "Una ardilla muriendo en tu patio trasero puede ser más relevante para tus intereses en este momento que una persona muriendo en África".

Eli Pariser sugiere que hemos pasado de una broadcast society una sociedad de transmisión unidireccional, como ocurría en la TV y en los diarios impresos, a una sociedad digital interactiva de consumo en paquetes discretos de información en la que los usuarios eligen o creen elegir todo lo que consumen. En una primera impresión esto tiene sus aspectos positivos, el paradigma de la transmisión hacía del usuario el receptor de un mensaje que se ajusta a ciertos intereses, con una agenda específica, sin embargo, también permitía que ciertos editores o gatekeepers que controlaran los flujos de información. Al leer un diario o incluso hasta hace unos al visitar un sitio de noticias en línea uno se encontraba con información de mayor variedad, filtrada por expertos, personas que reconocíamos como calificadas para presentar una versión relevante del mundo. Actualmente, según Pariser, se ha producido un relevo de la antorcha de los editores humanos a los editores algorítmicos. Esto es importante ya que los algoritmos no tienen ninguna noción ética, curan el mundo a partir de una única motivación: darle a los usuarios lo que les gusta para que sigan consumiendo más información en la plataforma en la que se encuentran, lo cual a su vez genera útil información que es procesada e integrada para generar mejores anuncios y actualizar esos mismos algoritmos que nos mantienen cautivos. Algoritmos que incluso ya empiezan a saber lo que vamos a hacer incluso antes que nosotros.  

Algunos téoricos de medios han sonado la alarma sobre el posible problema que esto representa para la democracia, incluso se habla de que la "burbuja del filtro" fue un factor importante en la campaña electoral del 2016.  Pero esto podría ser sólo la punta del iceberg, si es que, como creen algunos insiders de Silicon Valley quienes se desviven en elogios por la nueva tecnología de Magic Leap, estamos por entrar a la nueva revolución tecnológica: la realidad virtual o la realidad mixta. Si sumamos los algoritmos personalizados y su burbuja de filtros a una serie de aplicaciones que se mezclan con la realidad o la reemplazan, entonces literalmente enfrentamos la posibilidad de que hagamos realidad lo que ya sospechaban algunos filósofos escépticos: que cada quien sólo experimenta su propia realidad, todos vivimos en nuestra propia burbuja.

< Twitter del autor: @alepholo