*

X

Acuarelas hechas a partir de escáneres cerebrales de animales

Por: pijamasurf - 11/04/2015

Jen Sayuri es una artista multimedia y diseñadora californiana que crea maravillosas acuarelas a partir de escáneres cerebrales tomados a diversas especies de animales

J_Sayuri_Animal_Brains_Watercolor_Illustration_Llama1__880

Jen Sayuri es una artista multimedia y diseñadora que vive actualmente en Los Ángeles. Según cuenta en su biografía, después de graduarse del programa de arte de la Universidad de Berkeley regresó a su ciudad natal con el fin de aprovechar la floreciente escena del arte y la tecnología de la ciudad.

Sayuri imagina un mundo donde el arte se combina con la tecnología para crear experiencias interactivas que eleven nuestras vidas y amplíen nuestras mentes.

La artista californiana colecciona escáneres cerebrales de varias especies de animales y los integra a sus pinturas abstractas; así, “en el proceso de recolección de estas formas neurológicas e integrarlas con mis pinturas, espero que sugieran similitudes y diferencias curiosas entre especies variadas de mamíferos”, afirma en Bored Panda. “Quizás estos cerebros animales nos pueden dar un pequeño vistazo a otros cuerpos animales”.

Esta es la segunda parte de su serie Cerebros animales; esta vez añadió 20 cerebros a la serie original de 16, con lo que el número de cerebros mamíferos se elevó a 36.

Cuando Sayuri no está demostrando su armonógrafo y vendiendo su trabajo en la playa de Venecia o en el Mercado de ODD asiste a congresos de tecnología para conocer sobre electrónica, código abierto, programación y espacios colectivos de trabajo.

Toda la serie de acuarelas se exhibe en el Grand Newsstand en San Francisco, en Market Street. Por si alguien está por allá y tiene ganas y oportunidad de asistir.

 J_Sayuri_Animal_Brains_Watercolor_Illustration_American-Badger1__880 J_Sayuri_Animal_Brains_Watercolor_Illustration_American-Mink1__880 J_Sayuri_Animal_Brains_Watercolor_Illustration_Brown-Rat-Small1__880 J_Sayuri_Animal_Brains_Watercolor_Illustration_Common-Rabbit1__880 J_Sayuri_Animal_Brains_Watercolor_Illustration_Common-Wombat1__880 J_Sayuri_Animal_Brains_Watercolor_Illustration_Domestic-Cat1__880 J_Sayuri_Animal_Brains_Watercolor_Illustration_Domestic-Dog1__880 J_Sayuri_Animal_Brains_Watercolor_Illustration_Eastern-Rock-Elephant1__880 J_Sayuri_Animal_Brains_Watercolor_Illustration_European-Rabbit1__880 J_Sayuri_Animal_Brains_Watercolor_Illustration_Florida-Manatee1__880 J_Sayuri_Animal_Brains_Watercolor_Illustration_Linnasus-Two-toed-Sloth1__880 J_Sayuri_Animal_Brains_Watercolor_Illustration_Llama1__880 J_Sayuri_Animal_Brains_Watercolor_Illustration_Nine-Banded-Armadillo1__880 J_Sayuri_Animal_Brains_Watercolor_Illustration_Northern-Owl-Monkey1__880 J_Sayuri_Animal_Brains_Watercolor_Illustration_Platypus1__880 J_Sayuri_Animal_Brains_Watercolor_Illustration_Red-Kangaroo1__880 J_Sayuri_Animal_Brains_Watercolor_Illustration_Senegal-Bushbaby1__880 J_Sayuri_Animal_Brains_Watercolor_Illustration_Tasmanian-Devil1__880 J_Sayuri_Animal_Brains_Watercolor_Illustration_Western-European-Hedgehog1__880 J_Sayuri_Animal_Brains_Watercolor_Illustration_Big-Brown-Bat1__880

Stephen Hawking se pregunta si el capitalismo o la inteligencia artificial condenarán a la raza humana

Por: pijamasurf - 11/04/2015

El físico Stephen Hawking habla acerca de los posibles peligros que podemos enfrentar en el futuro gracias al capitalismo, entre otros: las máquinas revelándose contra los humanos y la extrema vulnerabilidad generada por el cambio climático

maxresdefault

Me temo que algunos recurrirán al siguiente silogismo en el futuro.

Turing cree que las máquinas pueden pensar.
Turing se acuesta con hombres.
Por lo tanto, las máquinas no pueden pensar.

Fragmento de una carta de Alan Turing, fechada en 1952

No deberíamos descartar el poder de la literatura como espejo del futuro. Es decir: muchas obras literarias han sido fundamento o han servido de inspiración para nuestro crecimiento tecnológico y otras, como las de Julio Verne, predijeron avances que no aún no se veían como posibles en el horizonte. Así, mucha literatura de ciencia ficción está basada en la "singularidad", una hipótesis que sugiere que una computadora, red informática o robot podrían ser capaces de automejorarse recursivamente, esto es: rediseñarse a sí mismos y este ciclo repetitivo podría dar lugar a un efecto que se saliera de nuestro control, como en la historia de Frankenstein: creaciones revelándose contra los creadores, en este caso la raza humana.

Se puede ver un buen ejemplo de esta hipotética singularidad en la película (altamente hollywoodense) Transcendence, si bien en un tono altamente exagerado y por momentos inverosímil. Pero no es sólo en la ficción donde esta hipótesis comienza a perfilarse, pues diversos científicos destacados han discutido esa idea como una posibilidad futura.  

No debe ser especialmente controvertido señalar que vivimos en un momento crucial en la historia humana, que las acciones que en conjunto se tienen (o que los plutócratas y tecnócratas toman) determinarán el futuro de la especie, o incluso si tenemos un futuro en los próximos siglos.

Las amenazas que plantea el cambio climático y la guerra se exacerban y aceleran gracias a la desigualdad económica que empeora rápidamente. Los avances exponenciales en la tecnología amenazan con eclipsar nuestra capacidad de controlar a las máquinas; en lugar de eso, corremos un riesgo probable de ser controlados o erradicados por ellas. La fábula de la revelación del monstruo contra su creador parece cada vez más posible, aunque algunos científicos distinguidos descarten por completo dicha posibilidad.

Pero también otros científicos renombrados e innovadores de la tecnología han alzado la voz frente a esta crisis y posible colapso. Tal es el caso del físico Stephen Hawking, quien ha emitido algunas advertencias últimamente en lo que respecta al futuro de la humanidad.

Hace varios años, Hawking predijo que "nuestra única posibilidad de supervivencia a largo plazo" podría ser "dispersarse por el espacio sideral" a lo Interestelar.

La crisis climática empeora en lugar de mejorar y aumentan los avances en la inteligencia artificial, refiere Hawking. Además, junto con Bill Gates y Elon Musk, el físico ha advertido de lo que el futurista Ray Kurzweil ha llamado "la singularidad": el punto en el que la inteligencia de la máquina supera a la nuestra.

Mientras que Kurzweil ha visto este evento a través de una lente de la Nueva Era optimista, la opinión de Hawking parece más acorde con visiones distópicas de ciencia ficción del Apocalipsis del robot. "El éxito en la inteligencia artificial sería el evento más grande en la historia humana", escribió en The Independent el año pasado; "Por desgracia, también podría ser el último". Teniendo en cuenta el diseño de sistemas de armas autónomas y, como le dijo a la BBC, el hecho de que "Los seres humanos, que están limitados por una evolución biológica lenta, no podrán competir y serán reemplazados", la perspectiva parece escalofriante e inevitable, como en un cuento de Philip K. Dick o Isaac Asimov.

"El riesgo real con la IA no es la maldad sino la competencia", aclaró Hawking en un Reddit fascinante, "Pregúntame cualquier cosa", en una sesión el mes pasado. Debido a las limitaciones físicas de Hawking, los lectores publicaron preguntas y votaron por sus favoritas. De éstas, Hawking ha elegido aquellas a las que "siente que puede dar respuestas". En respuesta a una pregunta de primer nivel sobre la llamada "Conversación Terminator", escribió: "Una IA superinteligente será muy buena en el cumplimiento de sus metas, y si esos objetivos no están alineados con los nuestros, estaremos en problemas".

Este problema de las metas desalineadas no se limita, por supuesto, a nuestra relación con las máquinas. Nuestras relaciones económicas precarias representan una amenaza por separado, sobre todo de cara a la pérdida masiva de empleos debido a la automatización actual y futura.

Nos gustaría imaginar un futuro donde la tecnología nos libere del trabajo y la necesidad, el tipo de sociedad que Buckminster Fuller buscó crear, pero la verdad es que la riqueza y la desigualdad de ingresos, actualmente en sus niveles más altos en Estados Unidos por lo menos desde la Edad de Oro, puede determinar un camino muy diferente del que podríamos pensar en términos de "la Conversación Elysium".

Algunas preguntas de esta sesión de Reddit a las que el físico respondió fueron: ¿prevé un mundo donde la gente trabaje menos porque el trabajo estará automatizado?, ¿cree usted que la gente siempre encontrará en qué trabajar o fabricará más trabajo para realizar?

Una de las respuestas de Hawking fue:

Si las máquinas producen todo lo que necesitamos, el resultado dependerá de cómo se distribuyen las cosas. Todo el mundo puede disfrutar de una vida de lujo y ocio si la riqueza producida por la máquina es compartida, o la mayoría de la gente puede acabar miserablemente pobre si los propietarios de las máquinas cabildean con éxito contra la redistribución de la riqueza. Hasta ahora, la tendencia parece ser hacia la segunda opción, con la tecnología avanzando habrá una creciente desigualdad.

Durante décadas después de la Guerra Fría, el capitalismo era casi una doctrina sagrada incuestionable de la historia, y el mejor de los mundos posibles. Pero no sólo Hawking ha hablado sobre los catastróficos efectos que el capitalismo puede generar como motor de la caída humana; también lo han hecho otras figuras no marxistas como Bill Gates, quien en una entrevista reciente a The Atlantic describió al sector privado como "ineptos en general" e incapaces de hacer frente a la crisis climática debido a su enfoque en las ganancias a corto plazo y los beneficios máximos. "No hay fortuna que hacer", dijo, en caso de hacer frente a algunas de las mayores amenazas para nuestra supervivencia; pero si no nos ocupamos de ello, las pérdidas serán incalculables.

bots-vs-humans2

 

[Vía Open Culture