La conversación entre humanos y máquinas acaba de entrar a un espacio que pone muchas interrogantes en el aire. En Florida, la línea entre herramienta y responsabilidad legal se está poniendo a prueba de una forma que hasta hace poco parecía lejana.
Una investigación que apunta a la inteligencia artificial
La Fiscalía de Florida abrió una investigación penal contra OpenAI para analizar el papel de ChatGPT en el tiroteo ocurrido en 2025 en la Universidad Estatal de Florida, donde murieron dos personas y seis más resultaron heridas.
El caso gira en torno a Phoenix Ikner, un estudiante de 20 años que, según las autoridades, mantuvo conversaciones con el chatbot antes del ataque. Lo que se discute ahora no es solo qué ocurrió, sino hasta qué punto una inteligencia artificial puede influir (o no)en decisiones humanas de esta magnitud.
El fiscal estatal, James Uthmeier, fue directo: si ChatGPT fuera una persona, enfrentaría cargos por asesinato. La declaración no es menor. En la legislación de Florida, alguien puede ser considerado cómplice si ayuda, aconseja o incentiva un delito.
Qué dicen las conversaciones
Aunque no se han hecho públicos todos los mensajes, la Fiscalía asegura haber encontrado intercambios donde el sistema habría respondido preguntas sobre armas, municiones, momentos del día con mayor afluencia y zonas con más personas dentro del campus.
Desde la perspectiva de las autoridades, esto podría interpretarse como una forma de asesoramiento. No necesariamente una instrucción directa, pero sí información que, en manos de alguien con intención violenta, puede adquirir otro peso.
También se ha mencionado que el atacante habría desarrollado su plan después de una interacción prolongada con el chatbot, lo que añade otra capa al debate: no se trata de una consulta aislada, sino de un proceso.
La postura de la empresa
OpenAI rechaza cualquier responsabilidad directa. La empresa sostiene que ChatGPT ofreció respuestas basadas en información pública y que en ningún momento promovió actividades ilegales o dañinas.
Además, asegura haber colaborado con las autoridades desde que tuvo conocimiento del caso, entregando la conversación vinculada al sospechoso. Para la compañía, el punto clave es este: se trata de una herramienta de uso general, utilizada por millones de personas, y su funcionamiento no equivale a intención.
Un debate que va más allá del caso
Lo que está en juego no es solo este tiroteo, sino el marco legal que rodea a la inteligencia artificial. Florida ya ha impulsado iniciativas para regular su uso, especialmente en contextos sensibles como la protección de menores o la transparencia tecnológica.
El problema es que no existe una legislación federal clara en Estados Unidos, y eso ha provocado que cada estado avance por su cuenta. El resultado es un mapa fragmentado de reglas que intenta alcanzar a una tecnología que evoluciona más rápido que las leyes.
En paralelo, también crece la preocupación por otros usos de la IA en contextos de riesgo, desde la desinformación hasta conductas autodestructivas. No es un tema aislado, sino parte de una conversación más amplia sobre límites, responsabilidad y control.
Lo que queda en interrogante
Este caso abre una pregunta difícil de esquivar: ¿hasta dónde llega la responsabilidad de una herramienta cuando alguien decide usarla con fines violentos?
No hay una respuesta sencilla. Por un lado, la tecnología responde a lo que se le pide. Por otro, el contexto en el que responde puede cambiarlo todo.
La investigación sigue en curso. Pero más allá del resultado legal, lo que ya quedó claro es que la relación entre humanos e inteligencia artificial dejó de ser solo funcional. Ahora también es ética y legal.