Pijama Surf

Noam Chomsky sobre los errores paradigmáticos en el desarrollo de la Inteligencia Artificial

En una extensa entrevista Noam Chomsky señala los posibles errores del desarrollo de la Inteligencia Artificial, que ha seguido un trayecto enfocado sobre todo desde el conductismo, una aproximación que dista mucho de retratar al cerebro humano en toda su complejidad.

Por: pijamasurf - 06/11/2012 a las 16:11:19

La Inteligencia Artificial (comúnmente AI, por sus siglas en inglés) puede mirarse como el espejo en el cual el ser humano busca reconocerse, entender los mecanismos mentales en los que se constituye y fundamenta su esencia. Aunque con aplicaciones prácticas tangibles, determinadas, el verdadero propósito de la AI es casi ontológico: replicar con el mayor grado de precisión posible nuestro cerebro y sus múltiples recursos para revelar el secreto que da sentido a nuestra existencia en este mundo.

Entre estos, sin duda uno de los más importantes es el lenguaje. O quizá el único si tenemos en cuenta esa corriente de pensamiento —tanto filosófica como de otras áreas— que ve en el lenguaje la cifra del ser humano, el elemento verdaderamente constitutivo de su ser. Entre el cerebro y el lenguaje hay una relación tan estrecha que, tautológicamente, es imposible saber si uno podría existir sin el otro. Incluso algunos experimentos con personas que por alguna condición —sordomudos de nacimiento, por ejemplo, o personas de idiomas distintos que, sin conocer lo que habla el otro, se ven forzados a interactuar entre sí constantemente por un periodo amplio de tiempo— han demostrado que el cerebro está programado instintivamente para desarrollar un lenguaje en sus estructuras más elementales, generando espontáneamente los equivalentes de sustantivos y verbos que cualquier idioma posee. De ahí que, al momento de plantear la posibilidad de dispositivos robóticos que imiten al ser humano, el lenguaje sea imposible de soslayar en su

En buena medida esto se supo gracias a los estudios del afamado lingüista Noam Chomsky, quien en la década de los 70 realizó estos y otros experimentos, además de estudiar la estructura de los idiomas, descubriendo que, teóricamente, la idea de un solo idioma subyacente a todos los que se hablan en el mundo, es factible.

En dicha época de su desarrollo intelectual, Chomsky confrontaba directamente los postulados del conductismo, la escuela psicológica fundada por B. F. Skinner que reducía toda la compleja naturaleza humana a un sistema de pesos y contrapesos, a la acción y la reacción que se da entre un estímulo y la respuesta que este provoca. En este marco, el lenguaje era también un mecanismo simple de aprendizaje en el cual una persona lo hacía suyo solo por efecto de la estimulación: conforme el mundo le hacía ver que se llamaba rojo todo lo que tenía este color, entonces el significado de “rojo” se asimilaba, sin mayor proceso de por medio. Las investigaciones de Chomsky demostraron que, por el contrario, además de tratarse de algo mucho más elaborado, el lenguaje y las estructuras cerebrales se pertenecen y se corresponden entre sí, lo cual es tanto o incluso más importante que los estímulos que se reciben socialmente del mundo exterior (para una exposición más detallada, pero todavía introductoria, de esta discusión, recomendamos el capítulo dedicado a Gertrude Stein del libro Proust Was a Neuroscientist de Jonah Lehrer, del cual existe traducción al español)

Por esta razón, Chomsky es también una voz autorizada para hacer notar las fallas en que ha incurrido la Inteligencia Artificial, las razones por las cuales, aunque sin duda ha alcanzado un desarrollo notable, todavía dista mucho de las promesas que la imaginación científica, literaria y cinematográfica ha planteado en diversos momentos de la historia moderna.

Recientemente el sitio The Atlantic publicó una amplia entrevista con Chomsky (conducida por Yarden Katz) sobre este tema, luego de que este participara en el encuentro “Brains, Minds and Machines” organizado en el marco del 150° aniversario del MIT, institución de la cual es profesor. En particular el interés de escuchar el punto de vista de Chomsky radica en que de alguna forma las críticas del conductismo que hiciera hace varias décadas parecen revivir en el ámbito de la AI, en donde, considera, se están aplicando aquellas premisas, salvo por algunas excepciones en que de verdad se intenta recrear la complejidad de los procesos humanos de pensamiento.

La plática transita por varios temas, algunos sin duda poco accesibles para el público no especializado, pero aun así es posible encontrar la perspectiva desde la cual Chomsky juzga el desarrollo de la AI: una que privilegia los fundamentos sobre los efectos, que descubre en el corazón epistémico de la ciencia —la manera en que se genera conocimiento— la determinación del rumbo que toman sus resultados y sus productos.

Supón que quieres predecir el clima de mañana. Una manera de hacer es obtener mis priores estadísticas, si quieres, hay una alta probabilidad de que mañana el clima aquí sea el mismo que el de ayer en Cleveland, así que me quedo con eso, y dónde el sol tendrá cierto efecto, también me quedo con eso, y así obtienes un montó de suposiciones como esa, realizas un experimento, observas una y otra vez, lo corriges con métodos Bayesianos, obtienes mejores priores. Das con una buena aproximación de cómo será el clima de mañana. Eso no es lo que hacen los meteorólogos —ellos quieren entender cómo está funcionando. Y eso son dos conceptos diferentes de lo que significa el éxito, o qué es un logro. En mi propio campo, el del lenguaje, está por todos lados. Como la ciencia cognitiva computacional aplicada al lenguaje, el concepto de éxito que se usa es virtualmente siempre este. Así que entre más y más datos obtienes, y mejores y mejores estadísticas, puedes obtener una mejor y mejor aproximación a un inmenso corpus de texto, como todo en los archivos del Wall Street Journal —pero no aprendes nada sobre el lenguaje.

Una aproximación muy diferente, que pienso que es la correcta, es intentar ver si puedes entender cuáles son los principios fundamentales y tratar con las propiedades nucleares, y reconocer que en el uso actual, habrá cientos de otras variables interviniendo —como con lo que se ve desde la ventana, que clasificarás para tener mejores aproximaciones, ese es un acercamiento distinto. Estos son solo dos conceptos diferentes de ciencia. El segundo es lo que la ciencia ha sido desde Galileo, la ciencia moderna. La aproximación de datos sin analizar es una suerte de nuevo acercamiento, no totalmente, pues hay cosas como esta en el pasado. Es básicamente un nuevo acercamiento que se ha acelerado con la existencia de memorias masivas, de procesamiento rápido, lo cual permite hacer cosas que no podrías hacer manualmente. Pero pienso que se está llevando a temas como la ciencia cognitiva computacional hacia una dirección de cierta aplicación práctica.

En cierta forma se trata de la aplicación de un algoritmo tras otro, una vasta y fractálica red hecha de algoritmos (“anillos cuyo collar se sella en el anillo de otro collar hecho de anillos”, según definió alguna vez Lacan al lenguaje) en la cual cada paso es el resultado de una serie de causas y consecuencias, ensayos y errores, un sistema tan aparentemente cerrado sobre sí —aunque potencialmente infinito— que de alguna manera es imposible concebirse fuera de él: sea el ser humano o sus creaciones robóticas. ¿O no?

[…] En teoría, porque no sabemos cómo, puedes hablar sobre el nivel neurofisológico, nadie sabe, pero ahí no nivel algorítmico real. Porque no hay cálculo del conocimeinto, es solamente un sistema de conocimiento. Para descubrir la naturaleza del sistema de conocimiento, no hay algoritmo, porque no hay proceso. Puedes usar el sistema de conocimiento, que tendrá un proceso, pero eso es algo diferente.

Pero esa es una actividad fundamentalmente diferente de mí añadiendo pequeños números en mi cabeza, lo cual seguramente tiene algún tipo de algoritmo.

No necesariamente. Hay un algoritmo para el proceso, en ambos casos. Pero no hay algoritmo para el sistema en sí, es un tipo de error de categoría. No preguntas de qué es el proceso definido por los axiomas de Peano y las reglas de la inferencia, no hay proceso. Puede haber un proceso al usarlo. Y podría ser un proceso complicado, y lo mismo es cierto para ti haciendo cálculos. El sistema interno que tienes —para eso, la cuestión del proceso no surge. Pero para tu uso del sistema interno, surge, y tal vez puedas hacer multiplicaciones con cualquier tipo de procedimiento. Como, tal vez, cuando sumas 7 y 6, digamos, un algoritmo es decir “Veamos cuánto toma llegar al 10 —toma 3, ahora dejé fuera al 4, así que tengo que partir del 10 y agregar 4, tengo 14”. Ese es un algoritmo para sumar —es de hecho uno que aprendí en el kindergarten. Es una manera de sumar.

Pero hay otras maneras de sumar, no hay algo como un algoritmo correcto. Estos son algoritmos para llevar a cabo el proceso del sistema cognitivo que está en tu cabeza. Y para este sistema no preguntas sobre los algoritmos. Puedes preguntar sobre el nivel computacional, puedes preguntar sobre el nivel mecánico, pero el nivel del algoritmo no existe para ese sistema. Es lo mismo con el lenguaje. Hay algún sistema ahí dentro que determina el sonido y el significado de un conjunto infinito de oraciones posibles. Pero no hay pregunta sobre qué es un algoritmo. Como no hay pregunta sobre lo que un sistema formal de aritmética te dice sobre la comprobación de teoremas. El uso de un sistema es un proceso y puedes estudiarlo en términos del nivel de Marr. Pero es importante tener conceptualmente claras estas distinciones.

Por otro lado y con ciertas resonancias de sus críticas al conductismo, Chomsky señala lo difícil que resulta hacer simple la oposición entre externalización e internalización, la expresión de un pensamiento y la gestación de ese pensamiento. Un poco a la manera de Wittgenstein y su noción de “lenguaje privado”, imposible en la medida en que las estructuras de dicho lenguaje se tomaban del medio, de las que la sociedad había formado históricamente, no de una creación original y personal ex nihil.

“Un ser humano infantil entiende más de lo que puede producir”, dice Chomsky, una observación que plantea la duda de si la evolución del pensamiento también debería ser parte importante de la Inteligencia Artificial. Y no se trata solo de ese aprendizaje conductista que se denomina con el pomposo término de lo “intuitivo”, sino de una cualidad mucho más amplia, de mayor alcance, capaz de generar conclusiones por sí misma en función de lo que percibe pero, quizá, en ese momento no entiende, una suerte de experiencia cognitiva que la acerque paulatina pero sostenidamente a la perfección, libre como estará de las limitaciones propias del ser humano.

La entrevista completa a Noam Chomsky en The Atlantic.


Comentarios

  1. Oliver4 dice:

    Excelente lectura hermanos

  2. Kim dice:

    Excelente artículo, siempre es interesante lo dicho por el gran Chomsky.

    Y si si, 6 y 7 son 13. Ha de haber sido error de edición.

    • Alexa dice:

      No intenta sumar 7+6. Dice 7 y 6

      Si el resultado es 10, y tienes 7, te faltan 3
      Si el resultado es 10 y partes de 6, toma 4 para llegar a 10.

      Y si partes de 10 y le agregas 4, pues tienes 14. El autor del artículo considero que no se equivocó…es cuestión de leer con puntuación.

      7+3= 10
      10-3= 7

      6+4= 10
      10+4= 14

  3. CIbernauta dice:

    7+6 = 14

    :/

  4. Es por mucho, el mejor artículo que he leído en Pijamasurf hasta el momento… Mil gracias.



Comenta.

Tu email no será publicado. Datos Obligatorios*

 
1NULL