Because if a machine, a Terminator, can learn the value of human life, maybe we can too.
Sarah Connor, Terminator 2
Los futurólogos de hace 150 años, durante la Revolución Industrial, seguramente se iban a dormir cada noche sabiendo que sus máquinas de vapor y sus bombillas experimentales no iban a matarlos a ellos y a toda la raza humana, al menos no conscientemente; porque las máquinas, hasta hoy, han sido herramientas sofisticadas para resolver algunos problemas con los que nos encontramos. Nuestro problema como especie, sin embargo, podría plantearse como aquello que nos distingue --más que el lenguaje-- de otros seres vivos: la excesiva facilidad con la que encontramos problemas donde no los hay, por el mero gusto de plantearlos --pero para las máquinas, el mayor problema podríamos ser nosotros.
Un escenario distópico del futuro (no tan) lejano como este fue planteado por Nell Watson en una conferencia de futurólogos (o futuristas) en Suecia. Watson es ingeniera y directora general de la compañía de escaneado de cuerpo Poikos, y se plantea en estos términos el papel de la actual generación: "La obra más importante de nuestras vidas es asegurarnos de que las máquinas sean capaces de comprender el valor humano. Son esos valores los que asegurarán que las máquinas no terminen matándonos como un acto de amabilidad".
Y es que, si lo pensamos un momento, los humanos podrían llegar a ser vistos como un problema para la sobrevivencia de las máquinas. Ese breve cuento de Juan José Arreola donde describe cyborgs feminoides creadas a la medida será una realidad en 2025. En rigor, la inteligencia artificial no es un ser, ¿pero qué pasaría si pudiera emular un ser y tomar decisiones autónomas que impacten las posibilidades de sobrevivencia en el planeta para los seres humanos?
En otras palabras, ¿qué tan importante es para la máquina el usuario?
Puede parecer paranoia o teoría de conspiración, pero en realidad es pura lógica. Stephen Hawking ha advertido sobre los enormes peligros de crear "super-seres"; la inteligencia humana, como ha advertido Noam Chomsky, no es tan simple como podría parecerle a una máquina.
La cuestión se encuentra en el aire en nuestros días (o en la wi-fi), lo que es evidente a partir de películas como Her y su versión para Linux, Trascendence. Los programadores son los nuevos antihéroes. La preocupación de Watson es que las reglas bajo las que la inteligencia artificial trabaja no sean capaces de abarcar implicaciones éticas que sólo la intuición, el instinto y la experiencia humana pueden tomar en consideración. La máquina tal vez compactaría "intuición-instinto-experiencia-etc." en una metadecisión aleatoria cualquiera, en un comando random.
No podemos explicarle a una máquina por qué nos sentimos atraídos a ciertas personas o lugares en vez de a otros. Tal vez, en unos años, nuestros gadgets documentarán todos y cada uno de los aspectos de nuestra vida (por ejemplo, tomándonos selfies automáticamente a lo largo del día y la noche o haciendo análisis discursivos en nuestros e-mails), no sólo para ayudarnos a funcionar en el entorno profesional o social sino, también, para conocernos mejor. ¿Qué pasaría si las máquinas quisieran hacernos un favor y simplemente nos borraran del mapa, por nuestro propio bien, para terminar de raíz con el sufrimiento humano al remover la fuente de todos sus problemas: el humano mismo?
El peligro de hacerlas demasiado parecidas a nosotros --a imagen y semejanza, podríamos decir-- es que el destino de cualquier creador es ser devorado por sus criaturas.