*

Facebook manipuló las emociones de 700 mil usuarios para hacerlos sentir más felices o más tristes

Por: Juan Pablo Carrillo Hernández - 06/29/2014

Como si quisiera demostrar su poder ahí donde creemos que se encuentra lo más personal, lo más propio, Facebook admitió haber realizado un experimento con casi 700 mil usuarios para manipular sus emociones

FBv3

Desde hace tiempo, varios estudios científicos y voces críticas han explorado la relación entre Facebook y las emociones humanas. En particular, casi desde el origen de dicha red social, se sospechó que el uso continuo de Facebook era capaz de provocar ansiedad, estrés, angustia, frustración y, en general, sentimientos más bien negativos y contrarios al bienestar de una persona.

Ello, en términos generales, porque Facebook dio cabida a un singular fenómeno de la psique humana: mostrar la vida propia mejor de lo que realmente es, maquillando aquí y allá, corrigiendo, mintiendo ligeramente. En el "mundo Facebook" todos parecen triunfar, ser felices y tener vidas satisfactorias y plenas todo el tiempo, lo cual puede convertirse en una especie de presión para quien piensa que todas esas vidas son mejores que la suya. De ahí entonces la pérdida de confianza y seguridad, la tristeza, la angustia de tener al alcance una vida perfecta y sin embargo, ser incapaz de concretarla.

¿Pero todo es espontáneo? La verdad es que no. Aunque la siguiente afirmación linda con el delirio paranoico, lo cierto es que incluso (o sobre todo) eso que creemos más nuestro, más personal, más íntimo, también es susceptible de convertirse en mercancía de los grandes poderes que conducen el mundo, materia prima para generar ganancias, conocimiento (al más puro estilo del siglo XVIII) que el Poder necesita para no morir nunca.

Prueba de ello es un experimento que hace unos años realizó Facebook para manipular abiertamente la conducta de sus usuarios y después beneficiarse de los resultados observados.

Durante una semana de 2012 y en colaboración con académicos de las universidades de Cornell y California, Facebook alteró el feed de 689 mil personas para saber qué sucedería cuando un usuario recibiera menos estímulos positivos o menos estímulos negativos. Es decir, manipuló la visualización de posts, comentarios, videos e imágenes en función de estas dos variables: las que tenían contenido emocional positivo y las de negativo. Su propósito fue indagar sobre el “contagio” de las emociones a través de la red social.

De acuerdo con los resultados obtenidos, cuando el feed está un poco más triste y apesadumbrado de lo normal, el usuario también tiende a postear contenido emocionalmente negativo; en caso contrario, cuando el feed es más feliz, el usuario busca participar también de ese impulso al ánimo colectivo.

Lo preocupante de este ejercicio es, por un lado, que las respuestas se consiguieron con sólo algunos ajustes en el algoritmo de Facebook (lo cual pone en entredicho nuestra autonomía con respecto incluso a entidades inertes, carentes de voluntad) y, por el otro, la capacidad que tiene Facebook para ejecutar una manipulación de semejante magnitud sin que nada ni nadie pueda detenerlo: ni un gobierno, ni sus usuarios (porque eso se realizó sin su consentimiento), ni organismos supranacionales. Nada ni nadie, como si, en efecto, la tiranía de los algoritmos estuviera a punto de suceder a la de las grandes corporaciones.