*

X
Chamath Palihapitiya, ex vicepresidente de Facebook, asegura sentir una culpa tremenda por haber contribuido al desarrollo de un recurso que sólo divide y desinforma a la sociedad.

Con cierta coincidencia en el tiempo, desde hace algunas semanas se han hecho públicas las declaraciones de antiguos ejecutivos de Facebook, Google, Twitter y otras empresas afines que, de alguna u otra forma se arrepienten de haber participado en el desarrollo de dichos recursos de comunicación digital, sean las redes sociales o los buscadores y que, a pesar de su creación más bien reciente, se han convertido en elementos en apariencia imprescindibles para la vida de millones de personas en todo el mundo.

Grosso modo, la aflicción de estos personajes tiene un elemento común: el efecto que esas “invenciones” han provocado en el mundo contemporáneo. Antes que un medio de unión, cooperación o información que alguna vez pareció ser, tal pareciera que Internet se ha convertido justo en lo contrario, un espacio fértil para la división y el sectarismo, tambaleante entre la trivialidad o la falsedad de sus contenidos y, por si esto fuera poco, aislando a la gente en el narcisismo de sus opiniones.

En este sentido, Chamath Palihapitiya, en su momento uno de los vicepresidentes de Facebook, aceptó recientemente sentir una “culpa tremenda” de haber trabajado para esta compañía y crear así “una herramienta que está destrozando el tejido sobre el cual la sociedad funciona”.

Palihapitiya trabajó en Facebook desde 2007 y, entre otras responsabilidades, estaba encargado del crecimiento del número de usuarios de la red social. Estas declaraciones las realizó en la Escuela de Negocios de Stanford, en donde brindó una charla en noviembre.

Entre otras afirmaciones, Palihapitiya dijo:

"Creamos ciclos repetitivos de recompensa instantánea, dominados por la dopamina, que están destruyendo a la sociedad. Corazones, likes, pulgares arriba… Sin discurso cívico, sin cooperación, desinformación, verdades a medias. Y este no es un problema de Estados Unidos, no se trata de la propaganda rusa. Es un problema mundial".

En la charla, el ahora fundador y director de Social Capital –una organización filantrópica de apoyo a la salud y la educación– aseguró que intenta usar Facebook lo menos posible e igualmente aconsejó a los asistentes limitar el uso de las redes sociales.

Palihapitiya criticó también al grueso de las empresas de Silicon Valley, cuyos inversores están impulsando compañías “de mierda, inútiles e idiotas” en vez de dirigir esos recursos a solucionar problemas reales como el cambio climático o las enfermedades.

Las declaraciones de Palihapitiya –que pueden escucharse cerca del minuto 21:52 del video que compartimos– se suman así a las de Sean Parker, uno de los primeros inversores de Facebook que, según referimos en esta nota, aceptó públicamente que al crear esta empresa sus fundadores sabían bien que estaban explotando la vulnerabilidad emocional humana, especialmente la necesidad de las personas por sentirse reconocidas o valoradas.

Lamentablemente, parece ser que estos sentimientos de culpa y arrepentimiento llegan tarde, ya que el mal está hecho. ¿O será posible aún revertir los efectos nocivos que las redes sociales están provocando en nuestras relaciones?

 

También en Pijama Surf: Esta mujer predijo en 1994 el lado oscuro de las redes sociales de forma increíblemente lúcida

Te podría interesar:
Ante los desarrollos recientes en inteligencia artificial y robótica, Musk lanza una alerta

En las últimas semanas se anunciaron al menos dos desarrollos robóticos sumamente sorprendentes. 

Por un lado, a finales de octubre, se dio a conocer a “Sophia”, quizá el robot más antropomórfico construido hasta hoy que, además, llegó acompañado de una estrategia publicitaria de alto impacto: se trata también del primer robot en la historia en recibir la ciudadanía de un país, en su caso Arabia Saudita, cuyo gobierno lanzó de esta forma el anuncio de que se encuentra abierto a acoger empresas e iniciativas dedicadas al desarrollo de inteligencia artificial. 

“Sophia” fue diseñada y construida por la compañía de origen hongkonés Hanson Robotics, en donde se le programó para sostener conversaciones con seres humanos. Sus programadores incorporaron desarrollos tecnológicos modernos como el reconocimiento facial y de voz, la búsqueda de nueva información y el aprendizaje sobre la marcha, pero al mismo tiempo puede considerarse una versión de su antecesora ELIZA, el legendario programa que fue uno de los primeros en pasar la prueba de Turing (conversar con un ser humano sin que éste se dé cuenta de que sostiene una plática con una máquina). En ese sentido, a pesar de todas las escenas sorprendentes que se han visto en medios, puede decirse que “Sophia” está diseñada para generar la ilusión de una conversación, y no tanto para conversar en sí, según lo entendemos los seres humanos.

Por otro lado, a mediados de noviembre, el laboratorio Boston Dynamics igualmente hizo públicas algunas escenas de su robot estrella, “Atlas”, realizando movimientos que “la mayoría de las personas no pueden hacer”, según se repitió en diversos medios, esto es, saltar del piso hacia una superficie elevada y, lo más notable, hacer un salto hacia atrás. 

Al ver tanto a “Sophia” como a “Atlas”, es un poco inevitable pensar en las varias películas de ciencia ficción construidas sobre la posibilidad distópica de la inteligencia artificial y los desarrollos robóticos. Por más optimismo o esperanza con que se presenten estas invenciones –se dice, por ejemplo, que “Sophia” podría asistir a personas mayores en casas de retiro, a los visitantes de un parque público, y que Atlas podría usarse en misiones de rescate–, lo cierto es que en la historia de la humanidad se encuentra evidencia suficiente para sospechar de esas buenas intenciones y, en ese sentido, no resulta complicado imaginar a “Sophia” y a “Atlas” en escenarios de guerra y violencia como los de la distopía Matrix, por ejemplo:

Elon Musk es una de las personas que comparten dicha suspicacia frente a la inteligencia artificial, e incluso más que una simple reticencia. De acuerdo con un reportaje publicado recientemente por la revista Rolling Stone, el también inventor y fundador de la compañía automotriz Tesla considera que existe sólo un 10% de probabilidades de desarrollar inteligencia artificial que sea segura para el ser humano. En el resto de escenarios, la inteligencia artificial representa un riesgo mayor para la supervivencia de nuestra civilización, según Musk.

Paradójicamente, Musk también es inversor en DeepMind, el ambicioso proyecto de investigación en inteligencia artificial de Google que cuenta con vastos recursos para sus investigaciones. Según se publica en Rolling Stone, Musk decidió invertir en el proyecto para “tener un ojo” en los desarrollos de Google. 

Según puede colegirse de sus proyectos y sus posiciones frente a ciertos fenómenos contemporáneos, Musk actúa bajo ciertas directrices filantrópicas y, a diferencia de muchos de sus colegas multimillonarios, se ha pronunciado en diversas ocasiones a favor del uso benéfico de la ciencia y la tecnología, en provecho de la humanidad y no en su contra. 

Él, por ejemplo, es una de las pocas personas que estando dentro del círculo de acción de los dueños y desarrolladores de empresas como Facebook, Google o Amazon, señala el inmenso poder que han acumulado estas corporaciones a través de la recolección de datos personales, mismo que hasta ahora se encuentra escasamente regulado y que quizá con el tiempo se vuelva incontrolable.

No es posible saber hasta dónde llegará el desarrollo de la inteligencia artificial o el uso de la información personal que concedemos con tan sólo pasar unos cuantos minutos en las redes sociales, pero quizá la alerta de Musk podría tomarse más en serio antes de que, como dijo en otra ocasión, veamos robots en las calles matando seres humanos.

 

También en Pijama Surf: 10 obras distópicas indispensables para entender el mundo en el que vivimos