*

X
Facebook se beneficia de la información de todos sus usuarios creando la ilusión de que es gratis

Cuando Facebook hizo sus acciones públicas, recibió una valuación de 270 mil millones de dólares pese a que sólo ingresaba 3 millones al año en ese momento. Esta valuación estaba basada fundamentalmente en la noción de que Facebook tenía tantos datos de sus usuarios que eventualmente encontraría la forma de obtener ganancias. Se decía que estaba sentado sobre un Fort Knox virtual.

El escritor Tim Wu señala que la verdadera innovación de Facebook no es su red social en sí misma, sino la creación de “una herramienta que convenció a cientos de millones de personas a que le dieran tanta información personal a cambio de tan poco”. Lo que significa que Facebook está alimentado por una oportunidad de arbitraje, esto es, “la diferencia entre cuánto Facebook recibe, y lo que cuesta simplemente proveer un lugar para socializar”. Es decir, estamos en la parte perdedora del trato, por lo cual resulta lógico pensar que Facebook nos debería estar pagando por nuestra información.  

Wu mantiene que el éxito de Facebook yace en que nos hace pensar que es un servicio gratis, y todos sabemos lo que genera la sensación de tener algo gratis en este mundo. Aparentemente uno no está entregando nada; este proceso de darle nuestra información y lo que hace con ella no es conspicuo. A diferencia de darle 100 dólares a alguien, al darle nuestra información a Facebook no somos más pobres que antes.

El analista y pionero de la realidad virtual Jaron Lanier compara esto con el trabajo. Uno no es más pobre al entregar una labor, pero sabemos que tiene un valor. Esto es equivalente a la información. No perdemos algo material fácil de cuantificar cuando la entregamos, pero ésta tiene una valor inherente y cuando “miles de millones de personas la entregan a unas pocas compañías, el efecto es una gigantesca transferencia de riqueza de los muchos a los pocos”, dice Wu. 

Entregar nuestra información a las grandes compañías hace que el mundo entero se vuelva “más comercialmente personalizado. Se vuelve más difícil ignorar anuncios o intrusiones”. Nos volvemos más vulnerables al mundo externo que nos conoce en algunos aspectos mejor que nosotros mismos y que está desarrollando constantemente herramientas para captar nuestra atención y predecir nuestro comportamiento. No sólo Facebook debería pagarnos, es nuestro deber exigir algo más sustancial por lo que estamos dándole. Nuestra información está ayudando a crear esta gran pecera digital que hace que el mundo se parezca en su totalidad a un supermercado —y que pronto podría tomar la forma de uno de esos enormes centros comerciales abandonados. 

La forma en la que están programadas las plataformas en línea hace que cada uno de nosotros experimente una versión personalizada de la realidad, la cual nos mantiene aislados de versiones que desafían nuestras propias ideas.

En el día después de la votación del Brexit, el activista Tom Steinberg notó un hecho alarmante. Aunque más de la mitad de su país había votado a favor de abandonar la comunidad europea en su Facebook no podía encontrar ningún post sobre alguien que estuviera celebrando el Brexit.

Estoy activamente buscando personas que estén celebrando la victoria del Brexit, pero la burbuja de filtros es tan grande, se extiende incluso a la búsqueda personalizada de Facebook, que no puedo encontrar nadie que realmente esté feliz pese a que la mitad del país claramente está en estado júbilo hoy.

Steinberg incluso hizo un llamado a las personas que trabajan en Facebook para que detuvieran "este problema de una cámara de ecos" donde "tenemos países en los que una mitad simplemente no se entera de la otra mitad". Claro que el problema no puede detenerse por los empleados de Facebook, porque es parte del código más básico de Facebook, gobernado por su complejo algoritmo: darle a las personas más de lo que ya les gusta. Sin embargo, el pleito de Steinberg probó ser ominoso en el caso de Donald Trump, una elección en la que la mitad de un país estaba tan disociada de la otra que nunca espero que pudiera ganar.

Algo similar le pasó a Douglas Rushkoff, quien ha montado este excelente sitio para entender la nueva ecología mediática que ha hecho surgir un nuevo nacionalismo. Explica Rushkoff que el Internet: 

Se ha convertido en un bucle [loop] de retroalimentación que se auto-refuerza, cada elección que hacemos es cuidadosamente notada e integrada por los algoritmos que personalizan nuestros feeds de noticias, así aislándonos cada vez más en nuestras burbujas de filtros ideológicos. Ninguno de los miles de personas que aparecen en mi feed de Twitter apoyaron a Trump o al Brexit. Para aquellos que si lo hicieron, estoy seguro que lo contrario es verdad. 

El término "filter bubble" fue acuñado por el fundador de Upworthy, Eli Pariser en el 2011. "Tu burbuja de filtros es única, un universo de información personalizada para ti por este abanico de filtros". Desde hace algunos años, Erick Schmidt de Google ya había anticipado que "va a ser muy difícil que las personas vean o consuman algo que no haya sido de alguna forma hecho a la medida para ellos".

Actualmente la mayoría de los principales sitios de Internet no ofrecen ya una experiencia igual para todos los usuarios, cada uno se encuentra con una plataforma personalizada y optimizada para satisfacer su experiencia. Por ejemplo, la búsqueda de Google utiliza más de 200 señales para personalizar los resultados que arroja (incluso si no estás logged in en una cuenta de Google). Cada pregunta que le hacemos a Google, buscando que nos ayude a entender la realidad, recibe una respuesta sesgada a nuestros patrones previos de consumo de información.  

Nikki Usher Layser, de la Universidad de George Washington, habla de una nueva "mass self-communication",  (autocomunicación de masas), un entorno mediático en el que "la toma de decisiones autónoma" de los algoritmos define que historias vemos. "No podemos romper con el patrón si sólo consumimos información en línea a través de nuestros feed sociales". Somos como peces pero no en el mar sino en nuestra propia pecera con los otros peces que piensan como nosotros. 

Adam Curtis, en su extraordinario documental Hypernormalization, sugiere que esta burbuja de filtros es parte de todos los sistemas informáticos de la actualidad, consustancial al desarrollo del Big Data y la predicción de comportamientos. Una serie de sistemas de información en los que todos los usuarios constantemente reciben una versión de la realidad basada en lo que de antemano ya les gusta, creando pequeñas bolsas de realidad que sólo afirman las creencias preestablecidas y  los mantienen aislados de ideas que desafían sus nociones básicas (el axioma de los algoritmos es: if you liked that, you will love this). Esto hace que en cierta forma nuestra experiencia con la tecnología moderna sea la de un espejo, que tiende al narcisismo, e incluso a un narcótico: nos empachamos de nosotros mismos y quedamos sedados, aislados en el confort de nuestra burbuja algorítmicamente personalizada del mundo externo --un mundo externo que nos parece frustrante ya que no es como nosotros queremos, por lo cual mejor nos quedamos en la plácida y anestésica comodidad de nuestra versión de la realidad cuidadosamente curada por los algoritmos que conocen lo que nos gusta.

El peligro de esto es que al movernos en una ecología de información personalizada sólo reforzamos lo que ya somos y nos encontramos con información que pueda desafiar nuestra ideología. Adam Curtis ha sugerido que los algoritmos utilizados por los sistemas financieros y las grandes corporaciones digitales tienen programado en su núcleo la noción de evitar los riesgos, maximiza ganancias y mantener la ilusión de que el mundo es simple, por lo cual puede ser enmarcado en narrativas dualistas del tipo bueno o malo, me gusta o no me gusta. Los algoritmos mantienen el orden de lo mismo y nos protegen del caos y la incertidumbre o del enfrentamiento con lo desconocido. En otras palabras, las plataformas digitales han incorporado en sus programas el sistema neoliberal de una economía de crecimiento infinito y consumo de entretenimiento a manera de distracción de los sucesos políticos que desafían su versión de la realidad y que los podrían colocar en contra de este mismo sistema. Como explicó Mark Zuckerberg a una periodista la importancia de su news feed. "Una ardilla muriendo en tu patio trasero puede ser más relevante para tus intereses en este momento que una persona muriendo en África".

Eli Pariser sugiere que hemos pasado de una broadcast society una sociedad de transmisión unidireccional, como ocurría en la TV y en los diarios impresos, a una sociedad digital interactiva de consumo en paquetes discretos de información en la que los usuarios eligen o creen elegir todo lo que consumen. En una primera impresión esto tiene sus aspectos positivos, el paradigma de la transmisión hacía del usuario el receptor de un mensaje que se ajusta a ciertos intereses, con una agenda específica, sin embargo, también permitía que ciertos editores o gatekeepers que controlaran los flujos de información. Al leer un diario o incluso hasta hace unos al visitar un sitio de noticias en línea uno se encontraba con información de mayor variedad, filtrada por expertos, personas que reconocíamos como calificadas para presentar una versión relevante del mundo. Actualmente, según Pariser, se ha producido un relevo de la antorcha de los editores humanos a los editores algorítmicos. Esto es importante ya que los algoritmos no tienen ninguna noción ética, curan el mundo a partir de una única motivación: darle a los usuarios lo que les gusta para que sigan consumiendo más información en la plataforma en la que se encuentran, lo cual a su vez genera útil información que es procesada e integrada para generar mejores anuncios y actualizar esos mismos algoritmos que nos mantienen cautivos. Algoritmos que incluso ya empiezan a saber lo que vamos a hacer incluso antes que nosotros.  

Algunos téoricos de medios han sonado la alarma sobre el posible problema que esto representa para la democracia, incluso se habla de que la "burbuja del filtro" fue un factor importante en la campaña electoral del 2016.  Pero esto podría ser sólo la punta del iceberg, si es que, como creen algunos insiders de Silicon Valley quienes se desviven en elogios por la nueva tecnología de Magic Leap, estamos por entrar a la nueva revolución tecnológica: la realidad virtual o la realidad mixta. Si sumamos los algoritmos personalizados y su burbuja de filtros a una serie de aplicaciones que se mezclan con la realidad o la reemplazan, entonces literalmente enfrentamos la posibilidad de que hagamos realidad lo que ya sospechaban algunos filósofos escépticos: que cada quien sólo experimenta su propia realidad, todos vivimos en nuestra propia burbuja.

< Twitter del autor: @alepholo