*

X
Este desarrollo del Instituto Tecnológico de Massachusetts permite que un dispositivo reconozca órdenes sencillas, como la navegación en una pantalla o la suma de cantidades

Hace unos meses se dieron a conocer los resultados de un desarrollo científico que, grosso modo, tuvo como propósito enseñar a una inteligencia artificial a reconocer pensamientos humanos, codificarlos y convertirlos en imágenes relativamente identificables. El resultado fue admirable, y de alguna manera mostró que en este momento existe tecnología capaz de adentrarse en el cerebro humano, bucear y extraer algo de lo mucho que puede pasar por nuestra mente.

En el Instituto Tecnológico de Massachusetts (MIT, por sus siglas en inglés) se ha desarrollado una tecnología que a primera vista parecer ser un puente directo entre el pensamiento y un dispositivo electrónico, de manera tal que éste ejecuta órdenes que parecen ser transmitidas sin decir una palabra, sin mover un dedo, sin presionar ningún botón: tan sólo con pensar.

El nombre provisional que tiene este prototipo es AlterEgo y por lo pronto permite interacciones “sencillas” como navegar con acciones simples a través de un menú de opciones, conocer la hora actual o sumar cantidades. 

Sin embargo, esto es posible no gracias a un sistema de reconocimiento neuronal o algo parecido, sino a un desarrollo sumamente preciso que identifica los movimientos musculares sutiles que la mayoría de nosotros realiza cuando “decimos” en silencio palabras muy específicas. 

Según se explica en el reporte del MIT al respecto, esta conexión entre la “voz interna” y el cuerpo se estudió con cierto interés siglo XIX, y con un poco más de seriedad a mediados del siglo XX. En el caso de este desarrollo se parte de un principio afín, al conectar 16 electrodos a distintas zonas del cuerpo para detectar esos movimientos usualmente imperceptibles para el ojo humano (e incluso para nuestra propia percepción). El sistema se complementó con un sistema de “aprendizaje profundo” (deep learning), basado a su vez en una red neural que hizo posible la correlación entre el pensamiento de palabras determinadas y la reacción muscular sutil asociada con éstas. Este es el resultado:

Si bien no es (aún) un puente directo entre el pensamiento y el dispositivo, AlterEgo parece encaminarse a dicho objetivo. Y también es inevitable pensar en otro efecto evidente y, no obstante, un tanto ignorado: el aislamiento de la persona que lo usa, que por un momento se ve rodeada de otros seres humanos pero está concentrada únicamente en su conexión con el aparato. Las similitudes con Her (Spike Jonze, 2013) son notables, restando toda la diferencia estética de ambos registros. 

¿Será este el futuro que aguarda al ser humano?

Te podría interesar:

Desarrollador de Cambridge Analytica revela cómo se minaron 50 millones de perfiles de Facebook para influir en elecciones

Medios y Tecnología

Por: pijamasurf - 04/09/2018

Christopher Wylie, exempleado de la empresa Cambridge Analytica, revela como se minaron datos de FB y se crearon perfiles psicológicos para implementar sofisticada propaganda a favor de Trump y el Brexit

Una importante filtración realizada por Christopher Wylie, exempleado de la firma de Big Data Cambridge Analytica, revela cómo se utilizaron datos de Facebook para crear sutiles perfiles psicológicos, los cuales sirvieron para dirigir anuncios y crear información subversiva en la elección de Estados Unidos y en la campaña a favor del Brexit. En una entrevista con The Guardian, este "whistleblower" revela lo que podemos llamar una nueva fase en la historia de la propaganda, donde el análisis de datos es utilizado como una poderosa arma algorítmica de manufactura de percepción.

Wylie, quien se define como el "canadiense gay vegano que acabó creando el arma de guerra psicológica manipuladora de mentes de Steve Bannon", narra cómo la empresa Cambridge Analytica fue montada en parte para hacer una especie de catering a las intenciones de Bannon, quien fue uno de los principales consejeros de la campaña de Trump. Se montó una oficina falsa en Cambridge como fachada para seducir a Bannon, quien buscaba un perfil académico en la compañía, siendo que él, más allá del interés en ganar la elección, tenía una visión ideológica política (a veces incluso profética). Bannon, quien se convertiría también en VP de Cambridge Analytica, según Wylie, tenía la idea de que para cambiar la política se debía cambiar la cultura. Ya que las unidades de la cultura son los individuos, se necesitaba "un arma cultural" para afectar a estos individuos. En ese momento la compañía cambió de nombre y se autodenominó Cambridge Analytica. En el nombre está el destino y esta elección -ya que la compañía no tenía realmente un perfil académico- refleja una percepción distorsionada de origen y, a la vez, revela lo que harían después: distorsionar la percepción de los votantes y crear climas enrarecidos y enardecidos que pudieran ser capitalizados políticamente. Wylie dice que lo que hicieron fue "un experimento inmoral, en el que se jugó con la psicología de todo un país sin su conocimiento", aunque afirma que no puede saber si estas operaciones fueron definitivas en determinar el resultado de la elección.

El dueño de Cambridge Analytica es Rob Mercer, un informático que hizo millones participando en firmas de tecnología antes de que surgiera el Internet. Mercer fue además accionista, junto con Bannon, del sitio de noticias Breitbart, a quien se responsabiliza por fortalecer el movimiento del alt-right o la extrema derecha, el sitio en el que, se dice, los estadounidenses enojados encuentran una voz resonante. Mercer es, además, uno de los principales coleccionistas de armas en Estados Unidos (teniendo entre su colección las armas de Terminator). Durante la campaña del Brexit donó los servicios de Cambdrige Analytica a Nigel Farage, el político que encabezó los esfuerzos del Ukip que pugnó por la salida de la Unión Europea. Asimismo, Mercer tiene vínculos con los multimillonarios hermanos Koch a través de su red de donaciones; los hermanos Koch son los principales donantes del llamado Tea Party, y de la campaña que niega la causa antropogénica del calentamiento global. Mercer ha sido uno de los principales donadores a las campañas republicanas en la última década, con más de 35 millones de dólares. Se podría decir que Mercer califica como un moderno supervillano, si los hay.

Para minar los datos de los usuarios de Facebook, Cambridge Analytica gastó alrededor de 1 millón de dólares y usó los servicios de Aleksandr Kogan y su compañía Global Science Research. Kogan construyó la app thisisyourdigitallife, la cual fue utilizada por más 100 mil personas, quienes recibieron un pago por llenar datos para "uso académico". Al aprobar los términos y las condiciones del app, los usuarios no sólo dieron acceso a sus perfiles a Kogan y a Cambridge Analytica sino también a los perfiles de sus amigos, incluyendo likes, comentarios y en ocasiones hasta mensajes privados. En sólo 2 meses se levantaron más de 50 millones de perfiles de usuarios de FB y con estos datos se crearon los algoritmos que fueron, de acuerdo con Wylie, el fundamento de la compañía. Cambridge Analytica había negado anteriormente usar datos de Facebook pero, aparentemente, la compañía fue fundada específicamente sirviéndose de los datos de Facebook para crear los distintivos algoritmos con los que se pudo tratar a los usuarios ya no como "votantes sino como personalidades" y con los que logró volverse tan atractiva para políticos y empresas.

Wylie señala que con esta información se logró entender el tipo de mensajes, el formato, el contenido, el tono y la frecuencia a la cual son susceptibles los usuarios individuales. A la par se montó un equipo de producción de medios y un equipo de diseminación de los productos mediáticos en blogs y perfiles de redes sociales, creados específicamente para promover los contenidos que podrían favorecer esta ingeniería de la percepción. Asimismo, en base a los perfiles psicológicos y emocionales de los usuarios se crearon anuncios  con targets específicos. Estudios previos sugieren que un análisis de los likes de los usuarios puede predecir información tan sensible como orientación sexual, raza, género, inteligencia, inclinación política, tendencia a abuso de drogas o alcohol y hasta trauma infantil. Wylie sugiere que esta herramienta, a diferencia de tomar un megáfono y comunicar un mensaje en una plaza pública, es "un susurro en la oreja de cada votante", dándole a cada uno un mensaje personalizado; "esto evita una experiencia colectiva y un entendimiento colectivo", se fragmenta la realidad. Así se le dio a Bannon su "arma cultural" y se llevó al extremo la llamada "burbuja de filtro" en la que cada quien recibe una versión personalizada de la realidad en base a sus gustos previos, colocando así a cada usuario en un universo tautológico separado de los demás. Wylie explica que la visión de alquimia política de Bannon, y quizás de Mercer, está apuntalada en este axioma: "para cambiar la sociedad primero debes romperla y luego debes reconstituir las piezas y moldearlas conforme a tu visión".

Ante esta información, Facebook ha suspendido a Cambridge Analytica y al mismo Wylie. Según el comunicado de la empresa:

Hace unos días recibimos informes de que, contrariamente a las certificaciones que nos fueron entregadas, no todos los datos fueron borrados. Nos estamos moviendo agresivamente para determinar la exactitud de estas afirmaciones. Si es cierto, se trata de otra violación inaceptable de la confianza y de los compromisos que asumieron. Estamos suspendiendo a SCL/Cambridge Analytica, Wylie y Kogan de Facebook, a la espera de más información.

Kogan seguramente enfrenta una investigación, aunque él argumenta que todo lo que hizo fue legal. Facebook sostiene que Kogan no tenía permiso de recolectar información con fines comerciales. Por otro lado, es posible que Facebook haya obrado al menos con negligencia, ya que si bien afirma haber enviado una carta en la que condena el uso de la información sin su permiso a la compañía Global Science Research, cuando ésta no fue contestada no realizó acciones posteriores en los siguientes 2 años. Aparentemente, durante 2 años Facebook no checó si esta información minada a través de la app había sido borrada. El especialista de protección de datos Paul Oliver Dehaye señala que Facebook tenía la obligación de informar que sus datos habían sido filtrados de manera posiblemente ilegal.