[Lanzamiento] Armas autónomas letales y su prohibición: un plan de estudio

TEDIC
Blog Tecnologías disruptivas
Mosaico armas autónomas letales

El proceso de aceleración tecnológica en el que se ve inmersa nuestra sociedad ha transformado de manera irreversible al mundo. En este contexto, el desarrollo de la inteligencia artificial supone un nuevo horizonte de posibilidades, con beneficios en todos los campos del conocimiento y actuar humanos. Esta tecnología ya se está extendiendo rápidamente por los sectores de vigilancia, la atención sanitaria, la agricultura y el trabajo social. Los expertos en IA advierten que los militares serán los siguientes.

Parece algo sacado de los confines de la ciencia ficción: robots en el campo de batalla que libran una guerra constante, algoritmos que determinan a quién hay que matar, máquinas de combate con reconocimiento facial que pueden identificar a un objetivo y eliminarlo antes de que tengas tiempo de decir «convenciones de Ginebra».

Sin embargo, no se trata de un guión cinematográfico, sino de una imagen ominosa de una guerra futura que se acerca cada vez más. «Robots asesinos» es el apodo de una gama de tecnología que utiliza los avances en inteligencia artificial y robótica de potencia para el diseño e implementación de sistemas armados autónomos. Estas nuevas herramientas presentan graves riesgos en términos de derechos civiles y humanos, y el prospecto de su avance aterroriza a los defensores de la paz por las ramificaciones éticas de la guerra librada a través de proxies digitales. Máquinas similares a los ejemplos a continuación se encuentran hoy en día desplegados en zonas de guerra, cielo, océanos y fronteras:

SRG-A1
Fabricado por: Samsung (Corea del Sur)
Vendido a: Corea del Sur

Este robot estacionario, armado con una metralleta y un lanzagranadas, opera sobre la fron-
tera entre Corea del Norte y Corea del Sur. Puede detectar seres humanos utilizando senso-
res infrarrojos y software de reconocimiento de patrones. El robot tiene modalidades tanto
supervisadas como no-supervisadas. Puede identificar y atacar intrusos, con la posibilidad
de disparar.
Harpy
Fabricado por: Israel Aerospace Industries (Israel)
Vendido a: China, India, Israel, Corea del Sur y Turquía

Este misil de merodeo de 2,1 m es lanzado desde un vehículo en tierra. Está armado con una
cabeza explosiva de 15 kg. El Harpy puede merodear por un periodo de hasta 9 horas a la
vez, buscando señales de radares enemigos. Detecta, ataca y destruye automáticamente
estos emisores.

La Campaña Contra Robots Asesinos (Stop Killer Robots) creada en 2012, es una alianza de organizaciones no gubernamentales que trabaja para prohibir las armas totalmente autónomas y mantener el control humano sobre el uso de la fuerza.  Actores de gobierno, sociedad civil y academia de más de 68 países están llamando a su prohibición, por considerar que desde una perspectiva ética y de derechos humanos es inaceptable que un robot tome decisiones de vida o muerte de manera autónoma, ya que esto puede poner en riesgo las vidas de personas inocentes y atenta contra la dignidad humana. TEDIC forma parte de esta alianza desde el año 2020.

“Armas Autónomas Letales y su prohibición: un plan de estudio” es una serie de resúmenes y dinámicas diseñada por TEDIC que busca facilitar la construcción del debate alrededor de esta problemática. Dirigida tanto a personas de comunidades técnicas como del área de periodismo y comunicación, el material recoge además ejemplos actuales del rol central de los científicos y comunicadores en la tarea de brindar una mirada crítica acerca de la construcción de estos sistemas de armas autónomos, y la importancia de llevar estos argumentos a la arena pública.

En este material el lector podrá encontrar información que le permita comprender el uso, las capacidades y limitaciones actuales de la robótica, la inteligencia artificial y los sistemas de biometría computarizada. Además, se busca sensibilizar sobre los problemas existentes en la construcción de sistemas de inteligencia artificial en cuanto a sesgos con una mirada interseccional, teniendo en cuenta cuestiones de género, raza, discapacidad y neurodiversidad. Esta enorme problemática alrededor de la construcción de sistemas de inteligencia artificial, ampliamente socializada gracias a documentales como Coded Bias, se torna aún más urgente de contemplar al considerar los riesgos que supone en la toma de decisiones sobre la vida humana en un contexto de guerra.

Podés descargar el material aquí: