*

The Guardian ha recibido filtraciones que muestran que Facebook tiene un equipo editorial que se encarga de impulsar ciertas noticias por sobre otras

Según ha revelado The Guardian en una filtración, Facebook tiene un equipo editorial humano que decide qué historias son relevantes para que sean impulsadas como tendencias en esta red social.

Aunque Facebook prefiere que pensemos que es un algoritmo sin ningún sesgo o inclinación política, lo que decide qué aparece entre las noticas que corren en el feed de los mil millones de personas que visitan esta red social cada día, de hecho se tiene un reducido equipo editorial que evalúa la información para hacer relevante el contenido. Las revelaciones que obtuvo The Guardian de un exempleado, quien mostró documentos internos similares a los que tienen los diarios noticiosos, se suman a acusaciones que sostienen que Facebook tiene un sesgo editorial en contra de organizaciones conservadores, a la par de una investigación del Senado de Estados Unidos. Como el mismo reporte del periódico señala es ingenuo pensar que Facebook, a fin de cuentas el distribuidor de noticias más grande del mundo, no tiene una posición política.  

Facebook había rechazado las acusaciones pero después de la información presentada por el diario británico ha tenido que aceptar que tiene un equipo editorial de alrededor de 12 personas que basan sus criterios en la información que aparece en cerca de 10 sitios de noticias globales, incluyendo Fox News, The Guardian, la BBC, NBC News, The New York Times, USA Today, The Wall Street Journal, The Washington Post y Yahoo News. Según los lineamientos revelados por The Guardian, los editores designan importancia cuando una historia aparece en varios de estos medios, lo cual evidentemente significa una muy restringida noción de lo que es relevante y una recirculación de lo mismo que tiende a lo monopólico. Este mismo reglamento interno permite que "inyecten" una historia a sus trending topics cuando lo consideran oportuno o que remuevan otra que no refleja algo relevante. 

Facebook ha hecho llegar a The Guardian una lista más amplia de mil sitio fidedignos que serían tomados en cuenta en sus elecciones editoriales. Lo anterior genera suspicacia sobre cómo Facebook valúa a los sitios y si existe una labor manual de etiquetar algunos como autoridades en ciertos temas o como poco fiables. Si bien en esto Facebook parece estar operando bajo la instrucción de hacer su sitio más relevante para los usuarios, es innegable que al introducir el factor humano se revela que el valioso terreno de competencia que es el campo de la atención de los usuarios en esta red social no es completamente equitativo para todos y que las reglas están siendo alteradas desde dentro. 

En la información mostrada se hace referencia al caso del #IceBucketChallenge que estaba inundando el sitio y el tema de BlackLivesMatter, el cual estaba circulando más en Twitter, como un parteaguas para introducir la Mano que dirige las noticias.

La idea bajo la cual las empresas de tecnología navegan libremente es que la data en su imponente cantidad y en su justicia estadística es la que rige el juego. Los usuarios viven bajo la necesaria ilusión de que no existe alguien moviendo los hilos detrás de la pantalla; es sólo una máquina capaz de simular inteligencia, algoritmos cada vez más astutos. En el caso de los usuarios que son también productores de noticias esta ilusión es vital, de otra manera se está jugando en un campo de juego inclinado en su contra y no se puede ya creer en la integridad del sistema. 

El poder que tiene Facebook en este sentido es inmenso y mayormente fuera del control de algún organismo regulador.  Como dice Vince Coglianese de The Daily Caller: "Es preocupante pensar que Facebook podría estar aislando intencionalmente vastas regiones del país", con esto diciendo que la red social podría estar mostrando lo que tiene relevancia para zonas o actores que su criterio editorial ha determinado como más importantes que otras.

Hace 2 años se dio a conocer que Facebook había realizado un experimento con 700 mil usuarios a los cuales se predeterminó que les aparecieran más posts positivos y negativos para entender qué efectos tenía esto en sus emociones. 

Google, por otro lado, orgullosamente mantiene que su página Google News es 100% algoritmo. En las noticias parece que es al revés que en la comida: entre menos humanas y más tratadas por algoritmos son, mejor.