Me temo que algunos recurrirán al siguiente silogismo en el futuro.
Turing cree que las máquinas pueden pensar.
Turing se acuesta con hombres.
Por lo tanto, las máquinas no pueden pensar.
Fragmento de una carta de Alan Turing, fechada en 1952
No deberíamos descartar el poder de la literatura como espejo del futuro. Es decir: muchas obras literarias han sido fundamento o han servido de inspiración para nuestro crecimiento tecnológico y otras, como las de Julio Verne, predijeron avances que no aún no se veían como posibles en el horizonte. Así, mucha literatura de ciencia ficción está basada en la "singularidad", una hipótesis que sugiere que una computadora, red informática o robot podrían ser capaces de automejorarse recursivamente, esto es: rediseñarse a sí mismos y este ciclo repetitivo podría dar lugar a un efecto que se saliera de nuestro control, como en la historia de Frankenstein: creaciones revelándose contra los creadores, en este caso la raza humana.
Se puede ver un buen ejemplo de esta hipotética singularidad en la película (altamente hollywoodense) Transcendence, si bien en un tono altamente exagerado y por momentos inverosímil. Pero no es sólo en la ficción donde esta hipótesis comienza a perfilarse, pues diversos científicos destacados han discutido esa idea como una posibilidad futura.
No debe ser especialmente controvertido señalar que vivimos en un momento crucial en la historia humana, que las acciones que en conjunto se tienen (o que los plutócratas y tecnócratas toman) determinarán el futuro de la especie, o incluso si tenemos un futuro en los próximos siglos.
Las amenazas que plantea el cambio climático y la guerra se exacerban y aceleran gracias a la desigualdad económica que empeora rápidamente. Los avances exponenciales en la tecnología amenazan con eclipsar nuestra capacidad de controlar a las máquinas; en lugar de eso, corremos un riesgo probable de ser controlados o erradicados por ellas. La fábula de la revelación del monstruo contra su creador parece cada vez más posible, aunque algunos científicos distinguidos descarten por completo dicha posibilidad.
Pero también otros científicos renombrados e innovadores de la tecnología han alzado la voz frente a esta crisis y posible colapso. Tal es el caso del físico Stephen Hawking, quien ha emitido algunas advertencias últimamente en lo que respecta al futuro de la humanidad.
Hace varios años, Hawking predijo que "nuestra única posibilidad de supervivencia a largo plazo" podría ser "dispersarse por el espacio sideral" a lo Interestelar.
La crisis climática empeora en lugar de mejorar y aumentan los avances en la inteligencia artificial, refiere Hawking. Además, junto con Bill Gates y Elon Musk, el físico ha advertido de lo que el futurista Ray Kurzweil ha llamado "la singularidad": el punto en el que la inteligencia de la máquina supera a la nuestra.
Mientras que Kurzweil ha visto este evento a través de una lente de la Nueva Era optimista, la opinión de Hawking parece más acorde con visiones distópicas de ciencia ficción del Apocalipsis del robot. "El éxito en la inteligencia artificial sería el evento más grande en la historia humana", escribió en The Independent el año pasado; "Por desgracia, también podría ser el último". Teniendo en cuenta el diseño de sistemas de armas autónomas y, como le dijo a la BBC, el hecho de que "Los seres humanos, que están limitados por una evolución biológica lenta, no podrán competir y serán reemplazados", la perspectiva parece escalofriante e inevitable, como en un cuento de Philip K. Dick o Isaac Asimov.
"El riesgo real con la IA no es la maldad sino la competencia", aclaró Hawking en un Reddit fascinante, "Pregúntame cualquier cosa", en una sesión el mes pasado. Debido a las limitaciones físicas de Hawking, los lectores publicaron preguntas y votaron por sus favoritas. De éstas, Hawking ha elegido aquellas a las que "siente que puede dar respuestas". En respuesta a una pregunta de primer nivel sobre la llamada "Conversación Terminator", escribió: "Una IA superinteligente será muy buena en el cumplimiento de sus metas, y si esos objetivos no están alineados con los nuestros, estaremos en problemas".
Este problema de las metas desalineadas no se limita, por supuesto, a nuestra relación con las máquinas. Nuestras relaciones económicas precarias representan una amenaza por separado, sobre todo de cara a la pérdida masiva de empleos debido a la automatización actual y futura.
Nos gustaría imaginar un futuro donde la tecnología nos libere del trabajo y la necesidad, el tipo de sociedad que Buckminster Fuller buscó crear, pero la verdad es que la riqueza y la desigualdad de ingresos, actualmente en sus niveles más altos en Estados Unidos por lo menos desde la Edad de Oro, puede determinar un camino muy diferente del que podríamos pensar en términos de "la Conversación Elysium".
Algunas preguntas de esta sesión de Reddit a las que el físico respondió fueron: ¿prevé un mundo donde la gente trabaje menos porque el trabajo estará automatizado?, ¿cree usted que la gente siempre encontrará en qué trabajar o fabricará más trabajo para realizar?
Una de las respuestas de Hawking fue:
Si las máquinas producen todo lo que necesitamos, el resultado dependerá de cómo se distribuyen las cosas. Todo el mundo puede disfrutar de una vida de lujo y ocio si la riqueza producida por la máquina es compartida, o la mayoría de la gente puede acabar miserablemente pobre si los propietarios de las máquinas cabildean con éxito contra la redistribución de la riqueza. Hasta ahora, la tendencia parece ser hacia la segunda opción, con la tecnología avanzando habrá una creciente desigualdad.
Durante décadas después de la Guerra Fría, el capitalismo era casi una doctrina sagrada incuestionable de la historia, y el mejor de los mundos posibles. Pero no sólo Hawking ha hablado sobre los catastróficos efectos que el capitalismo puede generar como motor de la caída humana; también lo han hecho otras figuras no marxistas como Bill Gates, quien en una entrevista reciente a The Atlantic describió al sector privado como "ineptos en general" e incapaces de hacer frente a la crisis climática debido a su enfoque en las ganancias a corto plazo y los beneficios máximos. "No hay fortuna que hacer", dijo, en caso de hacer frente a algunas de las mayores amenazas para nuestra supervivencia; pero si no nos ocupamos de ello, las pérdidas serán incalculables.
[Vía Open Culture]