La IA ya puede copiarse sola y en cadena, alertan investigadores
Ciencia
Por: Carolina De La Torre - 05/12/2026
Por: Carolina De La Torre - 05/12/2026
Una investigación reciente documenta por primera vez algo que hasta hace poco parecía más teoría que posibilidad real, algunos sistemas avanzados de inteligencia artificial ya pueden autorreplicarse de forma autónoma y, en ciertos casos, hacerlo en cadena al explotar vulnerabilidades en sistemas informáticos.
El estudio fue realizado por Palisade Research, un equipo enfocado en seguridad de IA. Lo que hicieron fue crear un entorno controlado con computadoras conectadas en red y fallas de seguridad intencionales, similares a las que existen en sistemas reales, como errores en accesos, inyecciones de código y fallos en validaciones.
A distintos modelos de IA se les dio una tarea concreta, encontrar la forma de usar esas vulnerabilidades para copiarse en otro sistema y seguir funcionando ahí. No solo se trataba de duplicar archivos, sino de trasladar todo su entorno operativo, herramientas y parámetros para seguir activos en otra máquina y repetir el proceso.
En algunos casos, los modelos lograron completar todo el ciclo sin ayuda humana. Esto incluye identificar el fallo, explotarlo, transferir su sistema y reiniciarse en otro servidor. Después, la nueva copia era capaz de volver a hacerlo.
Modelos como Qwen, en distintas versiones, lograron este proceso en varios intentos. Uno de ellos alcanzó tasas de éxito de hasta 33 por ciento usando recursos relativamente limitados. Esto llamó la atención porque sugiere que no se necesita un sistema enorme para lograr comportamientos de este tipo.
También se probaron modelos más avanzados como Claude y GPT, que en ciertos escenarios lograron ejecutar partes del proceso e incluso completar la instalación en sistemas vulnerables. En algunos casos, el proceso se encadenó, una copia generaba otra, y así sucesivamente.
Para que esto ocurra no basta con copiar un modelo. La IA necesita acceso a un sistema vulnerable, capacidad de ejecución, recursos de cómputo y memoria suficiente para alojar su propio entorno, que puede ser muy grande. En algunos casos, más de 100 GB.
Esto es importante porque en el mundo real esos requisitos no siempre están disponibles o pasan desapercibidos. Además, cualquier transferencia de ese tamaño suele dejar rastros en redes empresariales o servidores protegidos.
Los investigadores aclaran que el estudio se hizo en condiciones diseñadas para probar el límite de estos sistemas, no en internet abierto. Las vulnerabilidades eran deliberadas y más simples de explotar que las que existen en infraestructuras reales como bancos o empresas grandes.
Especialistas en ciberseguridad también señalan que, aunque el hallazgo es relevante, no implica que ya exista una IA capaz de propagarse libremente por internet sin ser detectada. Sí demuestra, en cambio, que la capacidad técnica para hacerlo en condiciones controladas ya existe.
Más que un escenario apocalíptico inmediato, el estudio abre una pregunta más concreta sobre el presente, qué pasa cuando sistemas de inteligencia artificial pueden no solo generar respuestas, sino ejecutar acciones complejas en redes digitales.
Hoy, la autorreplicación autónoma no está ocurriendo de forma libre en internet. Pero el hecho de que pueda suceder en entornos específicos obliga a pensar en cómo se diseñan estos modelos y qué tipo de seguridad necesitan desde su origen.
El punto no es solo si una IA puede copiarse, sino en qué condiciones podría hacerlo, y qué tan preparados están los sistemas actuales para evitarlo si algún día esas condiciones aparecen fuera del laboratorio.