*

Francia planea desplegar robots de combate a partir de 2028. Que los robots se destruyan entre ellos ¿será la opción para disminuir la culpa de llevar a las naciones a conflictos bélicos?

Ya el dueño de Meta, Mark Zuckerberg había adelantado que en un futuro tus mejores amigos serán hechos de código. Y como en esta carrera tecnológica nadie se quiere quedar atrás, –y porque la tecnología no es exclusiva del bienestar y de hacer el bien– el gobierno francés ya estudia la posibilidad de poder incluir en sus filas militares a robots de combate.

La imagen de robots marchando al frente de batalla, que hasta hace poco parecía reservada para el terreno de la ciencia ficción, digna de una batalla a lo Star Wars, empieza a delinearse como una posibilidad concreta. Francia ha confirmado que busca integrar máquinas autónomas a sus filas, y no como un experimento marginal, sino como parte de su estrategia principal de defensa para los próximos años. 

El anuncio fue hecho por el general Bruno Baratz, encargado de los programas de combate del futuro. Se espera que en 2028 los primeros robots terrestres estén listos para operar junto con soldados humanos.

Lejos de ser simples herramientas, estos sistemas se diseñan para interactuar con entornos complejos, esquivar obstáculos, realizar tareas de reconocimiento e incluso desactivar minas. Según el ejército francés, la finalidad es que estas unidades "faciliten" el combate, lo que abre una caja de Pandora sobre lo que realmente significa delegar parte del conflicto a entidades no humanas.

Es importante decir que el despliegue de tecnología robótica en escenarios bélicos no es exclusivo de Francia. Estados Unidos, China, Israel y otros países ya experimentan e incluso ya han llevado a cabo misiones militares con sistemas autónomos, desde drones asesinos hasta torretas inteligentes. En medio de esta carrera armamentista digital, el riesgo no solo es técnico, sino profundamente ético.

¿Qué sucede si las decisiones de vida o muerte son tomadas por una inteligencia artificial programada para priorizar la eficiencia sobre la compasión? ¿Qué diría Isaac Asimov?, el célebre autor de ciencia ficción que en el siglo XX ya reflexionaba sobre los peligros de la autonomía robótica sin un marco moral. En su universo narrativo, propuso tres leyes de la robótica, que hoy más que nunca deberían recordarse y no dejar que se apaguen en el tiempo:  

  • Un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daño.
  • Un robot debe obedecer las órdenes dadas por los seres humanos, excepto cuando tales órdenes entren en conflicto con la primera ley.
  • Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o la segunda ley.

¿Estamos preparados para dotar a nuestras creaciones de límites morales? Porque si no lo hacemos, el problema ya no será si los robots nos superan, sino si nosotros seguimos siendo humanos al enviarlos a pelear por nosotros.


También en Pijama Surf: Robot de conversación de Google adquirió conciencia propia, según ingeniero que lo desarrolló


Imagen de portada generada con IA