- Los gobiernos deberían tomar medidas urgentes para comenzar las negociaciones de un nuevo tratado que prohíba y restrinja los sistemas de armas autónomas, conocidas como “robots asesinos”.
- Un grupo pequeño de países poderosos que desarrollan armas autónomas han estado bloqueando los avances para un tratado en las conversaciones internacionales.
- Los numerosos países que se oponen a delegar las decisiones de vida o muerte a las máquinas deberían adoptar una nueva ley internacional para asegurar el control humano y la rendición de cuentas en la utilización de la fuerza.
(Washington, DC, 2 de agosto de 2021) – Los gobiernos deberían recuperar el tiempo perdido y comenzar urgentemente las negociaciones para un nuevo tratado que permita mantener un significativo control humano sobre el uso de la fuerza, señaló Human Rights Watch en un informe publicado hoy. Representantes de aproximadamente 50 países se reunirán el 3 de agosto de 2021 en la sede de las Naciones Unidas en Ginebra para celebrar su primera reunión diplomática oficial sobre sistemas de armas autónomas letales, o “robots asesinos”, en casi un año.
El informe de 17 páginas, “Areas of Alignment: Common Visions for a Killer Robots Treaty” (“Áreas de alineación: visiones comunes para un tratado contra los robots asesinos”), publicado conjuntamente por Human Rights Watch y la Clínica Internacional de Derechos Humanos de la Facultad de Derecho de Harvard, describe fuertes objeciones a delegar las decisiones de vida y muerte en las máquinas expresadas por los gobiernos en la última reunión oficial de la Convención sobre Armas Convencionales (CCW, por sus siglas en inglés) sobre robots asesinos. En esa reunión, celebrada en septiembre de 2020, se presentaron propuestas de muchos países para negociar un nuevo tratado internacional que prohíba y restrinja las armas autónomas.
“Es necesario ampliar el derecho internacional para crear nuevas normas que garanticen el control humano y la rendición de cuentas en el uso de la fuerza”, dijo Bonnie Docherty, investigadora principal de la División de Armas de Human Rights Watch y directora asociada de conflictos armados y protección civil en la Clínica Internacional de Derechos Humanos de Harvard. “Las preocupaciones morales, legales y de seguridad fundamentales que plantean los sistemas de armas autónomas justifican una respuesta firme y urgente en forma de un nuevo tratado internacional”.
Casi 100 países han expresado públicamente su opinión sobre los robots asesinos desde 2013. La mayoría ha pedido repetidamente un nuevo tratado internacional para mantener un control humano significativo sobre el uso de la fuerza, incluidos 31 que han solicitado explícitamente la prohibición de los sistemas letales de armas autónomas. Sin embargo, un pequeño número de países militarmente avanzados – sobre todo Israel, Rusia y Estados Unidos – consideran prematura cualquier medida para crear una nueva ley internacional. Están invirtiendo mucho en aplicaciones militares de inteligencia artificial y desarrollando sistemas de armas autónomas de aire, tierra y mar.
Los gobiernos han expresado su apoyo a la prohibición de los sistemas autónomos que son legal o moralmente inaceptables, dijeron los grupos. Existe un gran interés por prohibir los sistemas de armas que, por su naturaleza, seleccionan y atacan objetivos sin un control humano significativo, incluidos los sistemas complejos que utilizan algoritmos de aprendizaje automático para producir efectos imprevisibles o inexplicables. También se pide que se prohíban los sistemas de armas antipersonales que se basan en perfiles derivados de datos biométricos y de otro tipo recogidos por sensores para identificar, seleccionar y atacar a individuos o categorías de personas.
“Matar o herir a personas basándose en datos recogidos por sensores y procesados por máquinas violaría la dignidad humana”, dijo Docherty. “Confiar en algoritmos para atacar a personas deshumanizará la guerra y erosionará nuestra humanidad”.
Muchos países han propuesto complementar estas prohibiciones con reglamentos que garanticen que todos los demás sistemas de armas autónomas solo se utilicen con un control humano significativo, dijeron los grupos. Por “control humano significativo” se entiende que la tecnología sea comprensible y predecible y que sus operaciones estén limitadas en el espacio y el tiempo.
Un informe de octubre de 2020 elaborado por Human Rights Watch y la Clínica Internacional de Derechos Humanos recomendaba elementos para un nuevo tratado sobre robots asesinos que coinciden en gran medida con las propuestas realizadas por los países que participaron en la reunión de septiembre de 2020.
Las decisiones en la Convención sobre Armas Convencionales se toman por consenso, lo que permite que unos pocos países – o incluso uno solo – bloqueen un acuerdo buscado por la mayoría. Sin embargo, no es necesario negociar un nuevo tratado bajo los auspicios de la Convención sobre Armas Convencionales, y hay indicios de que los líderes políticos están ansiosos por avanzar y lograr un resultado más rápido y duradero.
En julio, el ministro neozelandés de Desarme y Control de Armas, Phil Twyford, advirtió que las actuales conversaciones diplomáticas “no están dando resultados” y sugirió a quienes se preocupan por la perspectiva de los sistemas de armas autónomas que se reúnan y “diseñen algo verdaderamente adecuado para el propósito”. Y añadió: “Para muchos de nosotros, la idea de que un ordenador pueda identificar y atacar un objetivo de forma autónoma es inconcebible”.
Un amplio y creciente número de países, instituciones, empresas privadas y particulares han reiterado su deseo de que se prohíban los sistemas de armas autónomas letales. En mayo, el Comité Internacional de la Cruz Roja (CICR) instó a los países a negociar un tratado internacional para prohibir los sistemas de armas autónomas que sean imprevisibles o que apunten a las personas, y que establecieran regulaciones para garantizar el control humano sobre otros sistemas. Desde 2018, el secretario general de las Naciones Unidas, António Guterres, ha instado a los Estados a prohibir los sistemas de armas que puedan, por sí mismos, apuntar y atacar a los seres humanos, calificándolos de “moralmente repugnantes y políticamente inaceptables”.
Los 31 países que exigen la prohibición de los robots asesinos son Argelia, Argentina, Austria, Bolivia, Brasil, Chile, China (solo el uso), Colombia, Costa Rica, Cuba, Ecuador, El Salvador, Egipto, Ghana, Guatemala, Irak, Jordania, México, Marruecos, Namibia, Nicaragua, Pakistán, el Estado de Palestina, Panamá, Perú, Uganda, el Vaticano, Venezuela, Yibuti y Zimbabue.
Human Rights Watch es cofundadora de la Campaña de Prohibición de Robots Asesinos, la coalición de más de 180 organizaciones no gubernamentales de 67 países que aboga por un tratado que mantenga un control humano significativo sobre el uso de la fuerza y prohíba los sistemas de armas que operan sin dicho control.
“Es factible y esencial poner un límite a las problemáticas tecnologías emergentes mediante la negociación de un nuevo tratado internacional para mantener un control humano significativo sobre el uso de la fuerza”, dijo Docherty. “No debe haber más retrasos”.