*

X
Tenemos más acceso a información, pero nos estamos volviendo más distraídos, lo cual anula completamente sus beneficios

Tim Wu es profesor de leyes de la Universidad de Columbia, pero su especialidad son las telecomunicaciones. Wu acuñó el término “net neutrality” y se ha convertido en uno de los más lúcidos analistas de los efectos que tiene la tecnología en nuestra sociedad.

En su reciente libro The Attention Merchants, Wu traza la historia de la industria de la atención, es decir, de las empresas y negocios que se dedican a captar la atención humana para vender anuncios o, más recientemente, para extraer datos. Esto tiene sus orígenes por lo menos en la década de 1830 en las publicaciones sensacionalistas de ciertos diarios y alcanza su maduración, por supuesto, en Internet y la economía de la atención.

Wu se basa en la observación del Premio Nobel de Economía, Herbert Simon:

En un mundo rico en información, la riqueza de información significa carencia de otras cosas: una escasez de aquello que esa información consume. Lo que la información consume es un tanto obvio: consume la atención de sus receptores. De aquí que la información crea una pobreza de atención que necesita ubicar esa atención eficientemente entre la sobreabundancia de fuentes de información que pueden consumirla.

Esto recuerda lo que ha dicho Alan Wallace, maestro de meditación budista, de que un diagnóstico general de la sociedad moderna muestra que todos tenemos déficit de atención, esta es la consecuencia de la hiperestimulación a la que estamos sujetos. Nunca antes había habido tantos estímulos.

Merece reflexionarse —y quizás no sin preocupación— en torno a esta idea de que existe una relación bidireccional entre la información (especialmente cuando es presentada en estímulos agresivos) y la atención, siendo ambos recursos finitos. La información demanda nuestra atención y cuando somos cautos y no se la damos, desarrolla técnicas sutiles y burdas para pescarnos. Hasta hace poco se creía popularmente que más información siempre era equivalente a un beneficio —hoy cada vez es más claro que la información debe saberse filtrar y desechar para liberar espacio—. Para poder movernos con dominio en esta pecera digital debemos aprende a cultivar y controlar nuestra atención, lo cual significa, en parte, renunciar al exceso de información.

Te podría interesar:

Estos son los verdaderos peligros de la inteligencia artificial (según Daniel Dennett)

AlterCultura

Por: pijamasurf - 01/08/2018

El famoso filósofo habla sobre el peligro que significa desarrollar inteligencia artificial

Algunas personas, como Stephen Hawking o Elon Musk, entre otros, han advertido sobre el peligro que representa la inteligencia artificial para la humanidad, sugiriendo que podría ser un camino de autodestrucción. El filósofo Daniel Dennett es más cauto y en su nuevo libro From Bacterias to Bach and Back, sugiere que el gran peligro no yace tanto en que estas máquinas, al cobrar inteligencia, nos quieran destruir, sino en que pensemos que realmente son superiores a nosotros, cuando todavía no lo son. El peligro de que les demos toda nuestra confianza, como un pueblo ignorante deposita su confianza en un dictador poco calificado para gobernarlo.

El verdadero peligro, yo creo, no es que máquinas más inteligentes que nosotros usurpen nuestro rol como capitanes de nuestros destinos, sino que sobrestimemos la comprensión de nuestras últimas herramientas para pensar, cediéndoles prematuramente autoridad más allá de su competencia...

Debemos tener la esperanza de que las nuevas prótesis cognitivas sigan siendo diseñadas para ser parásitos, ser herramientas, no colaboradores. Su única meta "innata", establecida por sus creadores, debe ser responder, constructiva y transparentemente, a las demandas del usuario.

Palabras cautas de Dennett, quien postula un cambio de perspectiva interesante que ya actualmente podemos ver en la realidad cotidiana con los algoritmos que dominan la web, si bien éstos no califican como inteligencias artificiales propiamente. De cualquier manera hemos depositado demasiada confianza en la integridad y la “inteligencia” de algoritmos como el de Facebook o el de Google y su influencia y, como puede constatarse con la creación de las llamadas burbujas de filtro y con la permeabilidad de las fake news, esto ya está teniendo consecuencias notables.