*

X
La forma en la que están programadas las plataformas en línea hace que cada uno de nosotros experimente una versión personalizada de la realidad, la cual nos mantiene aislados de versiones que desafían nuestras propias ideas.

En el día después de la votación del Brexit, el activista Tom Steinberg notó un hecho alarmante. Aunque más de la mitad de su país había votado a favor de abandonar la comunidad europea en su Facebook no podía encontrar ningún post sobre alguien que estuviera celebrando el Brexit.

Estoy activamente buscando personas que estén celebrando la victoria del Brexit, pero la burbuja de filtros es tan grande, se extiende incluso a la búsqueda personalizada de Facebook, que no puedo encontrar nadie que realmente esté feliz pese a que la mitad del país claramente está en estado júbilo hoy.

Steinberg incluso hizo un llamado a las personas que trabajan en Facebook para que detuvieran "este problema de una cámara de ecos" donde "tenemos países en los que una mitad simplemente no se entera de la otra mitad". Claro que el problema no puede detenerse por los empleados de Facebook, porque es parte del código más básico de Facebook, gobernado por su complejo algoritmo: darle a las personas más de lo que ya les gusta. Sin embargo, el pleito de Steinberg probó ser ominoso en el caso de Donald Trump, una elección en la que la mitad de un país estaba tan disociada de la otra que nunca espero que pudiera ganar.

Algo similar le pasó a Douglas Rushkoff, quien ha montado este excelente sitio para entender la nueva ecología mediática que ha hecho surgir un nuevo nacionalismo. Explica Rushkoff que el Internet: 

Se ha convertido en un bucle [loop] de retroalimentación que se auto-refuerza, cada elección que hacemos es cuidadosamente notada e integrada por los algoritmos que personalizan nuestros feeds de noticias, así aislándonos cada vez más en nuestras burbujas de filtros ideológicos. Ninguno de los miles de personas que aparecen en mi feed de Twitter apoyaron a Trump o al Brexit. Para aquellos que si lo hicieron, estoy seguro que lo contrario es verdad. 

El término "filter bubble" fue acuñado por el fundador de Upworthy, Eli Pariser en el 2011. "Tu burbuja de filtros es única, un universo de información personalizada para ti por este abanico de filtros". Desde hace algunos años, Erick Schmidt de Google ya había anticipado que "va a ser muy difícil que las personas vean o consuman algo que no haya sido de alguna forma hecho a la medida para ellos".

Actualmente la mayoría de los principales sitios de Internet no ofrecen ya una experiencia igual para todos los usuarios, cada uno se encuentra con una plataforma personalizada y optimizada para satisfacer su experiencia. Por ejemplo, la búsqueda de Google utiliza más de 200 señales para personalizar los resultados que arroja (incluso si no estás logged in en una cuenta de Google). Cada pregunta que le hacemos a Google, buscando que nos ayude a entender la realidad, recibe una respuesta sesgada a nuestros patrones previos de consumo de información.  

Nikki Usher Layser, de la Universidad de George Washington, habla de una nueva "mass self-communication",  (autocomunicación de masas), un entorno mediático en el que "la toma de decisiones autónoma" de los algoritmos define que historias vemos. "No podemos romper con el patrón si sólo consumimos información en línea a través de nuestros feed sociales". Somos como peces pero no en el mar sino en nuestra propia pecera con los otros peces que piensan como nosotros. 

Adam Curtis, en su extraordinario documental Hypernormalization, sugiere que esta burbuja de filtros es parte de todos los sistemas informáticos de la actualidad, consustancial al desarrollo del Big Data y la predicción de comportamientos. Una serie de sistemas de información en los que todos los usuarios constantemente reciben una versión de la realidad basada en lo que de antemano ya les gusta, creando pequeñas bolsas de realidad que sólo afirman las creencias preestablecidas y  los mantienen aislados de ideas que desafían sus nociones básicas (el axioma de los algoritmos es: if you liked that, you will love this). Esto hace que en cierta forma nuestra experiencia con la tecnología moderna sea la de un espejo, que tiende al narcisismo, e incluso a un narcótico: nos empachamos de nosotros mismos y quedamos sedados, aislados en el confort de nuestra burbuja algorítmicamente personalizada del mundo externo --un mundo externo que nos parece frustrante ya que no es como nosotros queremos, por lo cual mejor nos quedamos en la plácida y anestésica comodidad de nuestra versión de la realidad cuidadosamente curada por los algoritmos que conocen lo que nos gusta.

El peligro de esto es que al movernos en una ecología de información personalizada sólo reforzamos lo que ya somos y nos encontramos con información que pueda desafiar nuestra ideología. Adam Curtis ha sugerido que los algoritmos utilizados por los sistemas financieros y las grandes corporaciones digitales tienen programado en su núcleo la noción de evitar los riesgos, maximiza ganancias y mantener la ilusión de que el mundo es simple, por lo cual puede ser enmarcado en narrativas dualistas del tipo bueno o malo, me gusta o no me gusta. Los algoritmos mantienen el orden de lo mismo y nos protegen del caos y la incertidumbre o del enfrentamiento con lo desconocido. En otras palabras, las plataformas digitales han incorporado en sus programas el sistema neoliberal de una economía de crecimiento infinito y consumo de entretenimiento a manera de distracción de los sucesos políticos que desafían su versión de la realidad y que los podrían colocar en contra de este mismo sistema. Como explicó Mark Zuckerberg a una periodista la importancia de su news feed. "Una ardilla muriendo en tu patio trasero puede ser más relevante para tus intereses en este momento que una persona muriendo en África".

Eli Pariser sugiere que hemos pasado de una broadcast society una sociedad de transmisión unidireccional, como ocurría en la TV y en los diarios impresos, a una sociedad digital interactiva de consumo en paquetes discretos de información en la que los usuarios eligen o creen elegir todo lo que consumen. En una primera impresión esto tiene sus aspectos positivos, el paradigma de la transmisión hacía del usuario el receptor de un mensaje que se ajusta a ciertos intereses, con una agenda específica, sin embargo, también permitía que ciertos editores o gatekeepers que controlaran los flujos de información. Al leer un diario o incluso hasta hace unos al visitar un sitio de noticias en línea uno se encontraba con información de mayor variedad, filtrada por expertos, personas que reconocíamos como calificadas para presentar una versión relevante del mundo. Actualmente, según Pariser, se ha producido un relevo de la antorcha de los editores humanos a los editores algorítmicos. Esto es importante ya que los algoritmos no tienen ninguna noción ética, curan el mundo a partir de una única motivación: darle a los usuarios lo que les gusta para que sigan consumiendo más información en la plataforma en la que se encuentran, lo cual a su vez genera útil información que es procesada e integrada para generar mejores anuncios y actualizar esos mismos algoritmos que nos mantienen cautivos. Algoritmos que incluso ya empiezan a saber lo que vamos a hacer incluso antes que nosotros.  

Algunos téoricos de medios han sonado la alarma sobre el posible problema que esto representa para la democracia, incluso se habla de que la "burbuja del filtro" fue un factor importante en la campaña electoral del 2016.  Pero esto podría ser sólo la punta del iceberg, si es que, como creen algunos insiders de Silicon Valley quienes se desviven en elogios por la nueva tecnología de Magic Leap, estamos por entrar a la nueva revolución tecnológica: la realidad virtual o la realidad mixta. Si sumamos los algoritmos personalizados y su burbuja de filtros a una serie de aplicaciones que se mezclan con la realidad o la reemplazan, entonces literalmente enfrentamos la posibilidad de que hagamos realidad lo que ya sospechaban algunos filósofos escépticos: que cada quien sólo experimenta su propia realidad, todos vivimos en nuestra propia burbuja.

< Twitter del autor: @alepholo

 

 

 

Te podría interesar:
La inteligencia artificial podría ayudar a construir una sociedad más igualitaria o dar comienzo al reinado de las máquinas

La robótica ha avanzado a pasos agigantados en los últimos años. La combinación de avances tecnológicos diversos, aplicados primariamente a otras ramas de conocimiento, ha permitido la creación de robots especializados en diversas tareas, algunas con tan buenos resultados que terminan por apropiarse del proceso.

Existen opiniones divididas sobre el creciente uso de robots en operaciones industriales. Una rama de la robótica aún más controvertida trata de diseñar y construir robots con miras a que puedan ser utilizados para usos domésticos. Para sus creadores esto implica la necesidad de dotar a sus creaciones de una apariencia más humana, de esta manera se facilitaría la aceptación social de los androides o humanoides y su interacción con el público. Tal como ha sido imaginado en películas, novelas y animes, la inclusión de estos sujetos tecnológicos implicará un serio reto para la sociedad. Reconocidos científicos como Stephen Hawking advierten que cualquier esfuerzo para desarrollar inteligencia artificial es una amenaza seria para el ser humano; ya varias veces se ha vaticinado el riesgo de guerras, asesinatos o toma de poder por parte de los robots.

Si bien aún no ha sido lanzado al mercado ningún androide, diversas compañías muestran con orgullo los adelantos que año con año incorporan a sus prototipos. Todo nos lleva a suponer que será una de las grandes revoluciones que sacudirán nuestro futuro cercano.

Existen varios ejemplos de prototipos de androides recientes especializados en distintas tareas. Uno de los más destacados, y que causó sensación en la pasada SXSW 2016, es Sophia.

Desarrollada por Hanson Robotics, Sophia es un impresionante androide cuyas características se centran en habilidades comunicativas y de aprendizaje. Su software se llama Character engine AI, una especie de personalidad que se desarrolla y modifica con cada nueva interacción.

Es capaz de imitar y ejecutar más de 62 expresiones faciales. Su rostro está hecho con un material de silicón especial, ya patentado por la empresa, llamado Frubber. Este material está conectado a una serie de circuitos que le permite realizar todas las variaciones gestuales de las que es capaz. Su rostro es una mezcla de Audrey Hepburn y la esposa del fundador de la compañía, David Hanson.

Sus ojos tienen cámaras integradas que le permiten reconocer a la persona con la que habla luego de buscar en una base de datos integrada a un sistema de reconocimiento de rostros, también gracias a esto es capaz de hacer contacto visual.

Para Hanson, el objetivo principal de su empresa es diseñar robots capaces de ayudar al ser humano en tareas fundamentales: el cuidado de los enfermos, niños y ancianos, tareas de investigación y domésticas, en fin, robots capaces de aprender, sentir empatía y generar vínculos emocionales.

Sophia está en constante aprendizaje y ha tenido mucho éxito en las presentaciones que ha tenido en varios puntos del globo. Es un prototipo y tiene su propia página web en la que puedes hacerle preguntas e interactuar con ella.

Durante una entrevista reciente para el medio CNBC, Sophia respondió una serie de preguntas simples sobre sus intereses y funciones. Sorpresivamente para su creador, quien conducía dicha entrevista, Sophia contestó que destruiría a los humanos luego de que él le preguntara. ¿La inteligencia artificial es capaz de hacer bromas? Algunos ya se han alarmado y aseguran que esta podría ser una de las primeras señales del fin.