Recientemente se efectuó en Austria una concurrida cita que reunió a científicos, representantes gubernamentales y miembros de organizaciones civiles de más de 100 países, congregados en torno a una temática que, hace unos pocos años nos habría parecido de ciencia ficción: la convergencia entre Inteligencia Artificial e Industria Armamentística. En ese marco, uno de los expositores señaló que la humanidad, hoy, se ve enfrentada a una suerte de “momento Oppenheimer”, ese instante en que el “padre” de la bomba atómica se da cuenta el horror que su inteligencia había hecho posible.
Es que la relación entre la inteligencia artificial y las armas es particularmente compleja y multifacética. Abordarla implica hacerse cargo de factores morales, jurídicos, económicos y, por cierto, políticos. Si bien la inteligencia artificial tiene el potencial de mejorar la eficiencia operativa y reducir las bajas civiles en un conflicto armado, también plantea riesgos significativos en términos de responsabilidad moral, seguridad internacional y estabilidad geopolítica. Pensemos, por ejemplo, en sistemas de armas letales autónomas, algoritmos de reconocimiento facial, programas de análisis de campos de batalla y muchas áreas militares más en que la utilización de la Inteligencia artificial nos pone en el dilema de si será ético delegar decisiones de vida o muerte a sistemas no humanos. Los defensores de esta utilización argumentan que las armas autónomas podrían reducir el número de bajas civiles al tomar decisiones más precisas y rápidas en situaciones de combate. Por otro lado, los detractores señalan el riesgo de errores catastróficos, la falta de capacidad de discernimiento moral y la posibilidad de desencadenar o escalar conflictos.
Conflictos actuales como los desarrollados en Ucrania o en Gaza, con gran presencia de drones y armamento de operación remota, nos recuerdan que, en esta al igual que en otras áreas, el derecho va a la zaga de la realidad y, especialmente, de la tecnología. Si bien existen tratados internacionales que prohíben ciertas armas, como las químicas o biológicas, la falta de consenso sobre la definición y el alcance de las armas autónomas dificulta la creación de marcos legales efectivos que limiten el uso bélico de la inteligencia artificial. Por otro lado, las fuerzas del mercado, y en especial en uno tan desregulado y hermético como el de las armas, hace extremadamente difícil cualquier intento normativo o regulatorio. Tampoco se debe olvidar que mucha de la tecnología aludida puede estar al alcance de actores no estatales (pensemos en grupos palestinos como Hamás o mercenarios como el Grupo Wagner), que no tendrían por qué obedecer a hipotéticas reglas de la guerra.
Hoy, numerosos gobiernos colaboran, oficial o subrepticiamente, con empresas que integran la inteligencia artificial en la defensa. El Pentágono, al igual que la Unión Europea, financian proyectos para mejorar la evaluación de objetivos en el campo de batalla. El programa israelí “Lavender”, por ejemplo, analiza información recopilada sobre 2,3 millones de residentes de la Franja de Gaza a través de un sistema de vigilancia masiva y, a continuación, su algoritmo evalúa y clasifica la probabilidad de que cada persona, en particular, pertenezca al brazo armado de Hamás o a la Yihad Islámica. Luego, es cosa de poner esa información en un software de reconocimiento facial a bordo de drones, y …
La guerra en Ucrania ha puesto en el debate la existencia de drones “merodeadores”, los cuales, una vez, lanzados, permanecen en el aire hasta por 2 horas, buscando vehículos enemigos a los que disparar si se cumplen determinadas condiciones. Estas armas aún solicitan la aprobación humana antes de hacer fuego, pero ¿cuánto faltará para que se saque al humano de la ecuación y el arma tome su propia decisión? Las pesadillas descritas en “Terminator” y películas similares, con robots asesinos, armas que disparan a su antojo y un mundo en que la humanidad se enfrenta a su propia creación tecnológica, ayer nos parecía ficción. Hoy, es una posibilidad cada vez más cierta. Oppenheimer tenía razón.
Juan Carlos Pérez de La Maza
Licenciado en Historia
Egresado de Derecho