TEDIC se une a la campaña global “Stop Killer Robots”

TEDIC
Blog Campañas Digitales
Paremos_los_robots_asesinos

Aunque los avances tecnológicos de las últimas décadas se han centrado en mejorar el acceso a la comunicación y la información, hoy en día, éstos se centran en el desarrollo de la inteligencia artificial para aumentar la autonomía en la toma de decisiones.

La implementación de tecnología autónoma ya existe en los campos de infraestructura, transporte, agricultura, espacio y construcción, y ha sido desarrollada vigorosamente por los departamentos militares de los gobiernos de Estados Unidos, China, Israel, Corea del Sur, Rusia y el Reino Unido, principalmente como sistemas de armamento autónomo para la selección de objetivos de ataque, conocidas como sistemas de armas letales autónomas o robots asesinos. Con el desarrollo de estas armas robóticas, se plantea reemplazar a tropas por máquinas autónomas con mínimo o nulo nivel de intervención humana, que podrán seleccionar y atacar objetivos, tomando decisiones sobre dónde y cómo se utilizan y a quiénes atacar.

Formada en octubre de 2012, la Campaña «Stop Killer Robots» es una coalición de organizaciones no gubernamentales que se dedica a prohibir las armas totalmente autónomas y, por lo tanto, a mantener un control humano significativo sobre el uso de la fuerza.

Desde TEDIC nos unimos a esta campaña global buscando crear espacios de diálogo entre múltiples sectores interesados para sensibilizar sobre este tema en particular y fortalecer los esfuerzos de la sociedad civil por abordar la cuestión del uso y el abuso de tecnología que impregna la violencia y el control.

Participación en la Segunda Reunión Global de la campaña Stop Killer Robots

TEDIC fue parte de la Segunda Reunión Mundial de la campaña “Stop Killer Robots”, realizada los días 25, 26 y 27 de febrero de este año, realizada en Buenos Aires, Argentina, donde expertos de todo el mundo se juntaron para buscar contribuir al fortalecimiento de acciones globales, regionales y locales para avanzar hacia un tratado que prohíba el uso de armas autónomas letales. Podés leer más sobre el encuentro acá.

Stop Killer Robots en Paraguay – Lanzamiento de la campaña

Buscando crear espacios de diálogo entre múltiples sectores interesados para sensibilizar sobre este tema, TEDIC realizó el lanzamiento de la campaña a nivel local el día 12 de agosto a través de un encuentro virtual con la participación de actores nacionales e internacionales. En este encuentro, las ponentes principales fueron Pía Devoto, Directora de la Asociación para Políticas Públicas y especialista en asuntos de desarme de Seguridad Humana en Latinoamérica y el Caribe (Sehlac), y Paloma Lara Castro, Analista de Políticas Públicas (TEDIC).

En este encuentro, las ponentes comentaron acerca del contexto internacional y regional en términos de avance de la campaña y el rol fundamental de las organizaciones no gubernamentales en cuestiones de desarme, y los 5 pilares que sostienen esta campaña: Argumentos Legales, Seguridad Global, Control Humano sobre Sistemas de Armas, cuestiones de Género y Sesgos e Interseccionalidad y Racismo.

Finalmente, a través de una ronda de preguntas se discutieron temas referentes al contexto local en Paraguay en términos de uso de estas armas y otras tecnologías militares de vigilancia y monitoreo.

Pocket Brochure

Desde TEDIC creamos un material informativo sobre la campaña «Stop Killer Robots». Este brochure busca informar a la población de manera amigable sobre los temas principales que toca la campaña, resaltando los puntos más relevantes en un formato compacto y de bolsillo.

¡Te invitamos a que le eches un vistazo! Este brochure está disponible de manera gratuita tanto en formato físico como digital. Para acceder al mismo, podés:

  • Pasar por la oficina de TEDIC (15 de Agosto 823 casi Humaitá, Asunción, Py) a retirarlas de manera gratuita 🙂
  • También podés tener acceso al material en formato digital:
  • O descargarlas para imprimir en formato de fanzine doblable:

¿Cuáles son los fundamentos de esta campaña?

Argumentos Legales

En términos legales, la implementación de armas autónomas plantea preguntas acerca de su capacidad de seguir lineamientos relacionados a la ley humanitaria internacional y la ley internacional de derechos humanos.

La ley humanitaria internacional obliga a las partes beligrantes a realizar distinciones entre objetivos militares y civiles, tanto entre soldados y civiles como objetos civiles (tales como escuelas, hogares y hospitales) y objetivos militares, además de análisis de proporcionalidad de un ataque. Todas estas decisiones requieren realizar análisis que involucran variables ajenas a la capacidad de percepción de una máquina, más aún considerando las infinitas variaciones de escenarios que pueden presentarse en el campo de batalla. Los humanos estamos mejor equipados para entender matices de tono de voz, expresión facial, lenguaje corporal y elementos de contexto fundamentales para evaluar la proporcionalidad de un ataque.

Los humanos están motivados a tratar a otros humanamente por la capacidad de sentir compasión y empatía por las experiencias de otras personas. Una preocupación importante es que las máquinas autónomas no pueden entender el valor de una vida y el significado de su pérdida. Basarían la decisión de a quién matar en algoritmos y no considerarían el valor inherente de una víctima individual.

Debemos considerar además que, probablemente, el uso de armas autónomas no necesariamente quedaría relegado a operaciones militares. Si estas armas llegasen a implementarse en situaciones de aplicación de la ley en el ámbito civil, la ley internacional de derechos humanos entraría en juego. Derechos fundamentales como el derecho a la vida, el principio de dignidad humana y el derecho al resarcimiento se verían afectados.

En este último punto, es importante analizar quién sería responsable en el caso de la muerte de un civil en manos de un robot. Los comandantes, fabricantes y programadores escaparían la responsabilidad de los actos cometidos por una máquina de actuar completamente autónomo, dejando a las víctimas sin posibilidad de recibir compensaciones.

Seguridad Global

En una era donde la carrera armamentista entre súper potencias mundiales se encuentra en auge, el desarrollo de armas autónomas plantea grandes riesgos para la estabilidad internacional y seguridad global.

Sin un freno internacional en el desarrollo, testeo y producción de armas autónomas, es probable encontrarnos en una situación donde la proliferación de estas armas y contra armas sea inacabable. Las armas autónomas podrían seducir a los estados a aumentar el número de conflictos armados, y nos encontraríamos en situaciones difíciles de manejar por las características de estas armas. Al ser más rápidas y eficientes en su uso de energía, el control humano sobre el espacio de batalla se vería disminuido, con consecuencias difíciles de predecir.

Otra preocupación importante es la militarización del mundo civil. Ya hoy en día podemos ver el uso de tecnologías de guerra sin intervención humana, específicamente tecnologías de vigilancia y reconocimiento facial, siendo un siguiente paso natural el equipado de estas tecnologías con armamento. Los sistemas de armas autónomos podrían ser herramientas atractivas para la opresión de poblaciones y la supresión de protestas pacíficas y cambio político.

Un último aspecto a tener en cuenta en esta sección es la vulnerabilidad tecnológica. El riesgo de errores en el código, malfuncionamiento, degradación de las comunicaciones, y especialmente ciber ataques de enemigos e infiltraciones en la cadena de suministro hacen que estos sistemas sean inherentemente inseguros.

Control humano sobre sistemas de armas

La implementación de armas autónomas genera preguntas acerca del nivel de control humano que estos sistemas permitirán a la hora de realizar un ataque en el marco de un conflicto bélico o civil. Estas armas podrían tener la capacidad de seleccionar un objetivo de manera independiente y realizar un ataque sin ningún tipo de intervención humana. Este caso sería el más extremo e inaceptable, pero debemos además considerar otras modalidades que podrían limitar la capacidad humana de tomar una decisión deliberada.

Inclusive en casos donde estas máquinas toman decisiones que dependan de la aprobación final de un agente humano para su ejecución, variables como tiempos reducidos de toma de decisiones y una tendencia humana a confiar en los datos provistos por los sistemas autónomos podrían tener un impacto negativo en la capacidad humana de tomar una decisión pensada adecuadamente.

Género y sesgos

Las armas simbolizan poder. Esta asociación viene de un entendimiento muy particular – y muy dominante – de la masculinidad. Este tipo de masculinidad violenta lastima a todos, ya que requiere la opresión de los considerados “débiles” en base a las normas de género. Las armas autónomas tienen el potencial de perpetuar normas negativas de género, o ser utilizadas para cometer actos de violencia basada en género.

Los sesgos humanos están incrustados en los algoritmos y los datos que usamos para entrenar un programa de aprendizaje de la máquina a menudo reflejan nuestra propia sociedad patriarcal con sus problemas de clase y raza. Algo a tener en cuenta es que un porcentaje muy bajo de la población tiene la habilidad y la educación necesarias para crear programas de inteligencia artificial y la mayoría de esas personas nacieron en circunstancias bastante privilegiadas. Además, sólo alrededor del 12% de los principales investigadores de aprendizaje automático son mujeres. Sesgos en términos de género, raza, estatus socioeconómico, habilidad y orientación sexual pueden ser programadas en estas máquinas.

Interseccionalidad y Racismo

Cuando hablamos de inteligencia artificial, existe un banco de evidencias cada vez mayor que muestra que estas tecnologías no son neutrales y que el racismo opera en cada nivel del proceso de diseño, producción, implementación, distribución y regulación. A través de la aplicación comercial de big data estamos siendo agrupados en categorías y estereotipos. Esta categorización a menudo opera en contra de poblaciones vulnerables a la hora de aplicar a hipotecas, seguros, créditos, trabajos, y decisiones sobre fianzas, recindivismo, sentencias de privación de libertad, predicciones policiales, etc.

Si aplicamos inteligencia artificial con sesgos a los robots asesinos podemos ver como estos sesgos representan una amenaza a la ética y los derechos humanos, donde algunos grupos de personas podrán ser mucho más vulnerables que otras. En este aspecto, los robots asesinos no sólo ayudarían a mantener estas inequidades, sino que podrían exacerbarlas y terminar en consecuencias letales.

Armas autónomas en Paraguay

En el Paraguay no existe una postura clara sobre el uso de armas plenamente autónomas; sin embargo, existe una tendencia a la adquisición de tecnología de vigilancia y control, que está fuertemente relacionada con el uso de estas armas, ya que su empleo supondrá la ampliación de los casos de vigilancia, control y violencia en el país.

Hay una falta de leyes claras referentes a la exportación, importación y uso de la tecnología de vigilancia en la región. Esto afecta directamente al país y no impide la apropiación indebida de fondos públicos para adquirir tecnología de vigilancia, la utilización de tecnologías de vigilancia generalizada por el propio sector privado o en asociación con el sector público, ni el uso indebido de esas tecnologías contra la población civil, incluidos los periodistas y los defensores de los derechos humanos.

La posible implantación de estas armas en nuestro país es preocupante, teniendo en cuenta el contexto histórico de la dictadura, el narcotráfico, los conflictos armados y las violaciones sistemáticas y generalizadas de los derechos humanos mediante el uso de mecanismos de vigilancia poco claros y desproporcionados que no se ajustan a un enfoque integral de los derechos humanos ni a los mecanismos de salvaguardia contra abusos.

Cómo accionar y colaborar a la campaña

  • Podés donar a la campaña: https://donate.hrw.org/page/37038/donate/1
  • Podés contactar al gobierno y preguntar si ellos apoyan la prohibición de estas armas autónomas
  • Compartir la campaña a través de las redes sociales y/u otras plataformas:
    • Instagram: @stopkillerrobots
    • Twitter: @BanKillerRobots / @SehlacOrg
    • Facebook: @stopkillerrobots
    • Youtube: Campaign to Stop Killer Robots
    • LinkedIn: Campaign to Stop Killer Robots
  • Si sos parte de una organización no gubernamental, podés hacer que la organización se convierta en miembro de la campaña enviando un correo al personal de la campaña (admin@stopkillerrobots.org) sin costo alguno.
  • Si sos un representante de gobierno, debés respaldar y trabajar a favor de la prohibición del desarrollo y uso de las armas autónomas.
  • Si formas parte del sector privado y de una empresa tecnológica, podés accionar para que las empresas puedan comprometerse públicamente a no participar en el desarrollo de armas autónomas, y también solicitar la prohibición de las mismas.
  • Si sos una persona experta y trabajás con tecnología, inteligencia artificial, robótica y campos relacionados, podés unirte al Comité para Control de Armas Robóticas, co-fundador de esta campaña.

Para más información y recursos sobre sobre la campaña, podés acceder al sitio web de la misma. También, podés seguir nuestras publicaciones en las redes sobre las novedades y acuerdos que resulten en este segunda reunión global en Buenos Aires. Podés también seguir la agenda y los eventos de la campaña acá.