Internacionales

Los “robots asesinos” ponen en peligro los derechos humanos, tanto en conflictos armados como en contextos pacíficos

8653903602.png
Una vez localizado el objetivo, dispararían o liberarían su carga sin necesidad de aprobación o revisión por parte de un operador humano.

Este contenido fue hecho con la asistencia de una inteligencia artificial y contó con la revisión del editor/periodista.

(Nueva York, 28 de abril de 2025) – Los sistemas de armas autónomas presentan graves riesgos para los derechos humanos tanto en situaciones de guerra como en tiempos de paz, señaló Human Rights Watch en un informe publicado hoy. Los gobiernos deben abordar las preocupaciones que plantean estos sistemas de armas, conocidos como “robots asesinos”, a través de la negociación de un tratado multilateral que haga frente a estos peligros.

El informe de 61 páginas, titulado “Una amenaza para los derechos humanos: sistemas de armas autónomas y procesos de toma de decisiones digitales”, concluye que las armas autónomas -que seleccionan y aplican la fuerza contra objetivos basándose en sensores en lugar de intervención humana — irían en contra de los derechos a la vida, a la reunión pacífica, a la privacidad y a un recurso efectivo, así como los principios de dignidad humana y no discriminación. Los avances tecnológicos y las inversiones militares están impulsando el rápido desarrollo de sistemas de armas autónomas que operarían sin un control humano significativo.

“El uso de sistemas de armas autónomas no se limitará a los conflictos armados, sino que se extenderá a operaciones de seguridad, control fronterizo y otras circunstancias, lo que genera serias preocupaciones en virtud del derecho internacional de los derechos humanos”, declaró Bonnie Docherty, asesora principal sobre armamento en Human Rights Watch, profesora de Derecho en la Clínica Internacional de Derechos Humanos de la Facultad de Derecho de Harvard y autora principal del informe. “Para evitar un futuro de asesinatos automatizados, los gobiernos deben aprovechar cada oportunidad para avanzar hacia la adopción de un tratado mundial sobre sistemas de armas autónomas”.

El informe, elaborado junto con la Clínica Internacional de Derechos Humanos de la Facultad de Derecho de Harvard, se publicó antes de la primera reunión de la Asamblea General de las Naciones Unidas sobre sistemas de armas autónomas, que se celebrará en Nueva York los días 12 y 13 de mayo de 2025.

Los sistemas de armas con distintos grados de autonomía existen desde hace años, pero se han limitado los tipos de objetivos, la duración de las operaciones, el alcance geográfico y el entorno en el que operan. Entre estos sistemas se incluyen los sistemas de defensa antimisiles, los drones armados y las municiones merodeadoras.

Los sistemas de armas autónomas que operan sin un control humano significativo, una vez activados, dependerían de software -que a menudo utiliza algoritmos — así como de datos de sensores como cámaras, firmas de radar, formas térmicas y otros datos para identificar un objetivo. Una vez localizado el objetivo, dispararían o liberarían su carga sin necesidad de aprobación o revisión por parte de un operador humano. Esto significa que una máquina, y no una persona, determinaría dónde, cuándo y contra qué aplicar la fuerza.

Los sistemas de armas autónomas carecerían de la capacidad para interpretar situaciones complejas y para aproximarse con precisión al juicio y la sensibilidad humanos, elementos esenciales para el uso legítimo de la fuerza en el marco de los derechos a la vida y a la reunión pacífica.

En contra de los principios fundamentales de los derechos humanos, estos sistemas de armas serían incapaces de valorar la vida humana de la manera necesaria para respetar la dignidad de cada persona. Además, los sistemas que se basan en inteligencia artificial probablemente incurrirían en prácticas discriminatorias debido a los sesgos de quienes los desarrollan y a la falta inherente de transparencia del aprendizaje automático.

Los sistemas de armas autónomas también vulnerarían los derechos humanos a lo largo de todo su ciclo de vida, no solo en el momento de su uso. La vigilancia masiva necesaria para su desarrollo y entrenamiento socavaría el derecho a la privacidad. La ausencia de rendición de cuentas asociada a estos sistemas opacos (“cajas negras”) vulneraría el derecho a un recurso efectivo tras un ataque.

“Las personas, ya sean soldados o agentes de policía, a menudo cometen violaciones graves de los derechos humanos, pero sería aún peor sustituirlas por máquinas”, afirmó Docherty. “Aunque las personas tienen la capacidad de respetar los derechos humanos, las máquinas no poseen la facultad de cumplirlos ni de comprender las consecuencias de sus actos”.

Christof Heyns, exrelator especial de la ONU sobre ejecuciones extrajudiciales, fue el primer funcionario de Naciones Unidas en alertar sobre los sistemas de armas autónomas, en su informe de 2013 ante el Consejo de Derechos Humanos. “Una amenaza para los derechos humanos” traza cómo el secretario general de la ONU y numerosos organismos y expertos de Naciones Unidas han subrayado que el uso de sistemas de armas autónomas supondría amenazas al derecho internacional de los derechos humanos, y algunas voces han abogado para que estos sistemas sean prohibidos.

Más de 120 países se han pronunciado ya a favor de la adopción de un nuevo tratado internacional sobre sistemas de armas autónomas. El secretario general de la ONU, António Guterres, y Mirjana Spoljaric Egger, presidenta del Comité Internacional de la Cruz Roja, han instado a los Estados a “actuar ahora para preservar el control humano sobre el uso de la fuerza”, mediante la negociación, antes de 2026, de un instrumento jurídicamente vinculante que establezca prohibiciones y normas sobre estos sistemas.

La mayoría de los Estados que apoyan este tratado han abogado por prohibir los sistemas de armas autónomas que, por su naturaleza, operan sin un control humano significativo, o que tienen como objetivo a personas, así como por establecer regulaciones que garanticen que ningún otro sistema de este tipo pueda ser utilizado sin un control humano significativo.

La próxima reunión de la ONU fue convocada en cumplimiento de una resolución de la Asamblea General sobre sistemas de armas letales autónomas, adoptada el 2 de diciembre de 2024, con 166 votos a favor, 3 en contra (Bielorrusia, Corea del Norte y Rusia) y 15 abstenciones.

Los países han debatido sobre los sistemas de armas letales autónomas en el marco de la Convención sobre Ciertas Armas Convencionales (CCW, por sus siglas en inglés) en Ginebra desde mayo de 2014, pero sin resultados sustantivos. La principal razón de esta falta de avances en el marco de la CCW es que sus países miembros se rigen por un enfoque de toma de decisiones por consenso, lo que significa que un solo país puede bloquear una propuesta, incluso si todos los demás la apoyan. Un pequeño grupo de potencias militares que están invirtiendo en sistemas de armas autónomas ha explotado este mecanismo para bloquear repetidamente las propuestas de negociación de un instrumento jurídicamente vinculante.

“Las negociaciones de un tratado sobre sistemas de armas autónomas deberían celebrarse en un foro que se rija por un propósito común, adopte decisiones mediante votación, establezca plazos claros y ambiciosos, y esté comprometido con la inclusión”, afirmó Docherty.

TRA Digital

GRATIS
VER