*

X
Programador responde al problema de las noticias falsas; Facebook reacciona

En el último mes Facebook ha estado bajo escrutinio por su papel en las elecciones presidenciales de Estados Unidos. Se acusa a la red social, que es también el medio de comunicación más grande del mundo, de permitir la proliferación de noticias falsas y de crear una burbuja de filtros que aísla a los usuarios de información que contrasta con sus propias preferencias.

En primera instancia Facebook había desestimado las acusaciones, señalando que no tenían por qué ser árbitros de la verdad y subestimando su influencia en los resultados electorales. Poco después Facebook anunció que tomaría algunas medidas; entre ellas se dio a conocer que bloquearía a los sitios que publican noticias falsas de su sistemas de anuncios.

Mientras que Facebook pifiaba una respuesta satisfactoria, el programador Daniel Sieradski creó la extensión de Chrome y Firefox B.S. Detector, la cual alerta a los usuarios sobre la presencia de noticias poco confiables. Sieradski diseñó la extensión en respuesta expresa a "la dudosa afirmación de Mark Zuckerberg de que Facebook no es capaz de detener sustancialmente la proliferación de noticias falsas en su plataforma". 

La extensión funciona analizando todos los links que se encuentran en una página que apuntan hacia fuentes que han sido marcadas como poco confiables y luego emite una alerta a los usuarios. Sieradksi dice que está trabajando con sitios independientes de monitoreo periodístico para crear listas que no sean arbitrarias y que sigan criterios uniformes.

Al parecer Facebook se sintió agredido por esta extensión que ha sido descargada más de 25 mil veces. Las personas que estaban compartiendo links a esta extensión en Facebook se encontraron con un pop-up que advertía: "el link que estás compartiendo podrías ser poco seguro. Si puedes, por favor remueve este link".

Es preocupante que hayamos llegado a necesitar un software que nos advierta que la información que estamos leyendo puede ser falsa. Sin embargo, muchos usuarios que no tienen desarrollado un olfato para detectar las noticias falsas están siendo masivamente engañados por toda una industria que se beneficia del clickbait y que incluso ya trabaja en connivencia con ciertos políticos o partidos. 

Te podría interesar:
La forma en la que están programadas las plataformas en línea hace que cada uno de nosotros experimente una versión personalizada de la realidad, la cual nos mantiene aislados de versiones que desafían nuestras propias ideas.

En el día después de la votación del Brexit, el activista Tom Steinberg notó un hecho alarmante. Aunque más de la mitad de su país había votado a favor de abandonar la comunidad europea en su Facebook no podía encontrar ningún post sobre alguien que estuviera celebrando el Brexit.

Estoy activamente buscando personas que estén celebrando la victoria del Brexit, pero la burbuja de filtros es tan grande, se extiende incluso a la búsqueda personalizada de Facebook, que no puedo encontrar nadie que realmente esté feliz pese a que la mitad del país claramente está en estado júbilo hoy.

Steinberg incluso hizo un llamado a las personas que trabajan en Facebook para que detuvieran "este problema de una cámara de ecos" donde "tenemos países en los que una mitad simplemente no se entera de la otra mitad". Claro que el problema no puede detenerse por los empleados de Facebook, porque es parte del código más básico de Facebook, gobernado por su complejo algoritmo: darle a las personas más de lo que ya les gusta. Sin embargo, el pleito de Steinberg probó ser ominoso en el caso de Donald Trump, una elección en la que la mitad de un país estaba tan disociada de la otra que nunca espero que pudiera ganar.

Algo similar le pasó a Douglas Rushkoff, quien ha montado este excelente sitio para entender la nueva ecología mediática que ha hecho surgir un nuevo nacionalismo. Explica Rushkoff que el Internet: 

Se ha convertido en un bucle [loop] de retroalimentación que se auto-refuerza, cada elección que hacemos es cuidadosamente notada e integrada por los algoritmos que personalizan nuestros feeds de noticias, así aislándonos cada vez más en nuestras burbujas de filtros ideológicos. Ninguno de los miles de personas que aparecen en mi feed de Twitter apoyaron a Trump o al Brexit. Para aquellos que si lo hicieron, estoy seguro que lo contrario es verdad. 

El término "filter bubble" fue acuñado por el fundador de Upworthy, Eli Pariser en el 2011. "Tu burbuja de filtros es única, un universo de información personalizada para ti por este abanico de filtros". Desde hace algunos años, Erick Schmidt de Google ya había anticipado que "va a ser muy difícil que las personas vean o consuman algo que no haya sido de alguna forma hecho a la medida para ellos".

Actualmente la mayoría de los principales sitios de Internet no ofrecen ya una experiencia igual para todos los usuarios, cada uno se encuentra con una plataforma personalizada y optimizada para satisfacer su experiencia. Por ejemplo, la búsqueda de Google utiliza más de 200 señales para personalizar los resultados que arroja (incluso si no estás logged in en una cuenta de Google). Cada pregunta que le hacemos a Google, buscando que nos ayude a entender la realidad, recibe una respuesta sesgada a nuestros patrones previos de consumo de información.  

Nikki Usher Layser, de la Universidad de George Washington, habla de una nueva "mass self-communication",  (autocomunicación de masas), un entorno mediático en el que "la toma de decisiones autónoma" de los algoritmos define que historias vemos. "No podemos romper con el patrón si sólo consumimos información en línea a través de nuestros feed sociales". Somos como peces pero no en el mar sino en nuestra propia pecera con los otros peces que piensan como nosotros. 

Adam Curtis, en su extraordinario documental Hypernormalization, sugiere que esta burbuja de filtros es parte de todos los sistemas informáticos de la actualidad, consustancial al desarrollo del Big Data y la predicción de comportamientos. Una serie de sistemas de información en los que todos los usuarios constantemente reciben una versión de la realidad basada en lo que de antemano ya les gusta, creando pequeñas bolsas de realidad que sólo afirman las creencias preestablecidas y  los mantienen aislados de ideas que desafían sus nociones básicas (el axioma de los algoritmos es: if you liked that, you will love this). Esto hace que en cierta forma nuestra experiencia con la tecnología moderna sea la de un espejo, que tiende al narcisismo, e incluso a un narcótico: nos empachamos de nosotros mismos y quedamos sedados, aislados en el confort de nuestra burbuja algorítmicamente personalizada del mundo externo --un mundo externo que nos parece frustrante ya que no es como nosotros queremos, por lo cual mejor nos quedamos en la plácida y anestésica comodidad de nuestra versión de la realidad cuidadosamente curada por los algoritmos que conocen lo que nos gusta.

El peligro de esto es que al movernos en una ecología de información personalizada sólo reforzamos lo que ya somos y nos encontramos con información que pueda desafiar nuestra ideología. Adam Curtis ha sugerido que los algoritmos utilizados por los sistemas financieros y las grandes corporaciones digitales tienen programado en su núcleo la noción de evitar los riesgos, maximiza ganancias y mantener la ilusión de que el mundo es simple, por lo cual puede ser enmarcado en narrativas dualistas del tipo bueno o malo, me gusta o no me gusta. Los algoritmos mantienen el orden de lo mismo y nos protegen del caos y la incertidumbre o del enfrentamiento con lo desconocido. En otras palabras, las plataformas digitales han incorporado en sus programas el sistema neoliberal de una economía de crecimiento infinito y consumo de entretenimiento a manera de distracción de los sucesos políticos que desafían su versión de la realidad y que los podrían colocar en contra de este mismo sistema. Como explicó Mark Zuckerberg a una periodista la importancia de su news feed. "Una ardilla muriendo en tu patio trasero puede ser más relevante para tus intereses en este momento que una persona muriendo en África".

Eli Pariser sugiere que hemos pasado de una broadcast society una sociedad de transmisión unidireccional, como ocurría en la TV y en los diarios impresos, a una sociedad digital interactiva de consumo en paquetes discretos de información en la que los usuarios eligen o creen elegir todo lo que consumen. En una primera impresión esto tiene sus aspectos positivos, el paradigma de la transmisión hacía del usuario el receptor de un mensaje que se ajusta a ciertos intereses, con una agenda específica, sin embargo, también permitía que ciertos editores o gatekeepers que controlaran los flujos de información. Al leer un diario o incluso hasta hace unos al visitar un sitio de noticias en línea uno se encontraba con información de mayor variedad, filtrada por expertos, personas que reconocíamos como calificadas para presentar una versión relevante del mundo. Actualmente, según Pariser, se ha producido un relevo de la antorcha de los editores humanos a los editores algorítmicos. Esto es importante ya que los algoritmos no tienen ninguna noción ética, curan el mundo a partir de una única motivación: darle a los usuarios lo que les gusta para que sigan consumiendo más información en la plataforma en la que se encuentran, lo cual a su vez genera útil información que es procesada e integrada para generar mejores anuncios y actualizar esos mismos algoritmos que nos mantienen cautivos. Algoritmos que incluso ya empiezan a saber lo que vamos a hacer incluso antes que nosotros.  

Algunos téoricos de medios han sonado la alarma sobre el posible problema que esto representa para la democracia, incluso se habla de que la "burbuja del filtro" fue un factor importante en la campaña electoral del 2016.  Pero esto podría ser sólo la punta del iceberg, si es que, como creen algunos insiders de Silicon Valley quienes se desviven en elogios por la nueva tecnología de Magic Leap, estamos por entrar a la nueva revolución tecnológica: la realidad virtual o la realidad mixta. Si sumamos los algoritmos personalizados y su burbuja de filtros a una serie de aplicaciones que se mezclan con la realidad o la reemplazan, entonces literalmente enfrentamos la posibilidad de que hagamos realidad lo que ya sospechaban algunos filósofos escépticos: que cada quien sólo experimenta su propia realidad, todos vivimos en nuestra propia burbuja.

< Twitter del autor: @alepholo