*

X
¿Hasta dónde llega el poder de Facebook, especialmente cuando muestra pocos escrúpulos para modificar su algoritmo? Evgeny Morozov sostiene que Facebook no sólo ha invadido nuestra privacidad, sino también nuestra personalidad

facebook1

Hace algunos años (en 2008), cuando Facebook empezaba a volverse la red social más popular del mundo, un artículo de The Guardian cuestionaba las "amistades" de Facebook. Para dar el salto hacia convertirse en una plataforma de alcance mundial Facebook recurrió en su primera línea de inversionistas a In-Q-Tel (el brazo emprendedor de la CIA) y a Peter Thiel (dueño de Pay Pal, de ideas transhumanistas, y miembro de Bilderberg). En ese entonces había todavía más preocupación por la privacidad de la información de los usuarios, a la cual se sabía que tenían acceso aplicaciones de terceros y agencias de marketing. Hoy en día nos parece poco alarmante entregar nuestra información a Facebook quizás porque, después de las filtraciones de Snowden, sabemos que en cualquier parte estamos vigilados (incluyendo sitios como Facebook, que de manera voluntaria o coercitivamente han tenido que entregar información de sus usuarios a la NSA). Sin embargo, en algún momento, no hace mucho, resultaba casi escandaloso pensar en que le abriríamos nuestras vidas hasta el punto de compartir nuestros detalles más íntimos a una compañía cuyo interés es poder ganar más dinero con esa información --por no decir a "amigos" que apenas conocemos. El mismo Zuckerberg lo expresó en conversaciones grabadas poco después de haber lanzado Facebook: "la gente es estúpida; simplemente me da su email".

En enero de 2008 Tom Hodgkinson, el periodista de The Guardian, escribió: "El Departamento de Defensa y la CIA aman la tecnología porque hace el espionaje más sencillo". Hodgkinson claramente sospechaba que Facebook iba a ser usado con este fin (cuando tenía menos de 60 millones de usuarios; hoy tiene más de mil millones). Efectivamente, Facebook fue usado para espiarnos --de nuevo, con nuestro consentimiento o sin; eso es en la práctica lo menos importante-- y seguramente está siendo usado para espiarnos. Hay otra prefiguración en la participación de la firma de venture capital de la CIA en los inicios de Facebook: que este sitio se convertiría en un laboratorio social donde se experimentaría con el comportamiento de los usuarios y se manipularían sus interacciones, posiblemente como parte de un programa de ingeniería social --o simplemente para poder ganar más dinero, teniendo más clicks y vendiendo más publicidad.  

En junio se dio a conocer que Facebook llevó a cabo un experimento con 700 mil usuarios, modificando su algoritmo --el reglamento invisible-- para que aparecieran más posts positivos o negativos (según el grupo) en su News Feed. Los resultados mostraron que aquellos expuestos a posts positivos se sienten más felices y escriben más posts positivos (y más en total). Esto luego resulta en más clicks, y más ingresos de publicidad.

Este experimento generó cierta alerta entre críticos. Clay Johnson, el co fundador de Blue State Digital, la agencia que manejó la campaña digital de Obama en 2008, dijo: "¿Podría la CIA incitar una revolución en Sudán presionando a Facebook a promover descontento? ¿Debería ser ilegal? ¿Puede Mark Zuckerberg cambiar el resultado de una elección promoviendo ciertos sitios?" Preguntas que son todavía más alarmantes cuando sabemos que Facebook duerme con la CIA (o, al menos, con una prima cercana).

Pero, en realidad, la "mala prensa" afectó poco a Facebook, cuyas acciones se encuentran en su punto más alto. Como apunta el siempre crítico Evgeny Morozov, en realidad nada afecta a Facebook, al menos ningún cuestionamiento ético. Pero el experimento sí provee información valiosa para Zuckerberg y sus socios: pueden ganar dinero incluso permitiendo a los usuarios un mínimo respiro de  privacidad, siempre que sigan multiplicándose los clicks. Ahora Facebook, la compañía que lanzó la idea de que la privacidad era cosa del pasado y todos deberíamos abrazar lo social como una ubicua envoltura transparente, tiene una herramienta para avisar los usuarios si éstan "sobrecompartiendo" (oversharing) o les permite ver cómo están siendo medidos.

Esto parece ser de nuevo una estrategia con una agenda velada, como ha ocurrido antes en la historia de Facebook. Morozov, acusado de una radical tecnofobia (pero probablemente uno de los más lúcidos observadores de la red), advierte que a la par Facebook está comprando compañías y desarrollando aplicaciones que registran los movimientos online y offline de los usuarios, lo cual significa que podrá hacer aparecer contenido más relevante --contenido especialmente dirigido a una persona que está corriendo, manejando o andando en bicicleta, por ejemplo, como ocurre con la app Moves.

fb_mindcontrolcEl asunto de fondo es que Facebook no parece tener ningún reparo en manipular su algoritmo si este beneficia su plan de negocios o su agenda social, y no existe un mecanismo para hacerle rendir cuentas. Otro ejemplo de la alteración del algoritmo aparentemente inocuo y loable fue cuando, en 2012, se alteró su configuración para que los usarios pudieran expresar un status de donador de órganos, lo cual produjo más de 13 mil registros en el primer día. El poder de decidir qué tipo de iniciativa es buena para la sociedad y cuál no es enorme. Escribe Morozov:

La razón por la cual debemos temer a Facebook y a su clase no es porque violan nuestra privacidad. Es que definen los parámetros de la gris y mayormente invisible infraestructura tecnológica que moldea nuestra identidad. Todavía no tienen el poder de hacernos felices o tristes, pero seguramente lo harán pronto, si hacernos felices o tristes les ayuda a generar más ingresos.

Esta visión no está lejana de un tono distópico --una distopía totalitaria no sólo sería inmersiva, sino que probablemente ocurriría sin que nos hayamos dado cuenta de que está sucediendo. Morozov nos pide que nos preguntemos :"¿Qué tanto nuestra identidad está siendo modificada por los algoritmos, bases de datos y apps que extienden los esfuerzos políticos, comerciales y estatales para hacernos --como dice la canción distópica de Radiohead-- 'más aptos, más felices, más productivos' (fitter, happier, more productive)?".

Paralelamente, desde hace unos meses Facebook ha venido realizado cambios en su algoritmo, apretándolo de tal manera que los posts de las fanpages aparecen en menos cantidad a menos usuarios, claramente para hacer que las compañías que buscan recibir tráfico o dar a conocer sus mensajes masivamente tengan que pagar para que sus posts aparezcan. Esta medida ha golpeado a numerosos sitios de noticias, hasta el punto de hacer que algunos prácticamente desaparezcan. ¿Cómo estar seguros de que Facebook no privilegia en su algoritmo a sitios que pagan más o que le son más afines ideológicamente o, simplemente, que le generan mayores ingresos al fomentar una especie de ecosistema favorable para promover esta "felicidad" digital que se traduce en clicks?

Facebook es, al menos en potencia, una máquina de alcance orewelliano capaz de censurar y delimitar la realidad. Poco notamos que esto está suciendo, viviendo ya un "efecto pecera" dentro de su sistema. El algoritmo traspasa la vida digital y se convierte en parte de nuestra personalidad.

Twitter del autor: @alepholo

Te podría interesar:
Nuestros ojos pasan por las imágenes como si fueran textos, ¿pero qué pasaría si nuestros ojos no fueran exactamente a donde los publicistas suponen? ¿Qué miramos realmente al observar un perfil de Facebook, un resultado de búsqueda en Google o un CV?
[caption id="" align="aligncenter" width="678"] Lo más probable es que la gente sólo vea el rostro de Scarlett Johansson y que apenas preste atención a la marca y otros detalles[/caption]

Los mapas de calor son una tecnología que permite entender el recorrido de la mirada sobre una imagen, al igual que sus movimientos dentro de ella. Mientras más rojo ("más caliente"), más tiempo pasa una persona viendo ese punto; mientras más azul (más frío) menos tiempo.

Las imágenes no se leen igual que los textos: no todas tienen un sentido tan claro, y los diseñadores publicitarios proponen composiciones gráficas que determinan ciertas rutas visuales. Los mapas de calor permiten saber si esas rutas se cumplen o no.

Es interesante, por ejemplo, ver que existen diferencias en cuanto a lo que llama la atención de hombres y mujeres en una misma imagen, o que los lectores de páginas de internet parecen haber incorporado un filtro visual para no distraerse con los banners y anuncios.

En esta prueba de atención visual, los hombres pasaron más tiempo observando a la modelo, mientras las mujeres vieron a la modelo y luego leyeron el texto:

Aquí, solamente las mujeres prestaron atención a los zapatos de la modelo:

En La última cena, el observador se enfoca en los rostros de Cristo y los apóstoles:

Al observar el perfil de Facebook de una mujer, ambos sexos se enfocaron en el rostro; si el perfil es de hombre, es más probable que lean el texto:

La gente parece prestar poca atención a los banners y anuncios en general en las páginas de internet:

En búsquedas de Google, lo más probable es que sólo veamos los primeros cinco resultados antes de comenzar otra búsqueda o seguir algún link:

Un reclutador pasa sólo 6 segundos mirando un CV. En lo que más se fijan es en el nombre, puesto actual y puestos anteriores, las fechas y el nivel educativo.