Este contenido fue hecho con la asistencia de una inteligencia artificial y contó con la revisión del editor/periodista.
Los recientes enfrentamientos entre Irán e Israel no son sucesos aislados, ni puramente militares; representan el último capítulo de una confrontación de décadas, basada en razones históricas, ideológicas y religiosas. El conflicto se ha librado en diferentes frentes: desde ataques militares directos hasta guerras por delegación (proxy war), en Siria y Gaza, pasando por ciberataques y operaciones encubiertas. A esta dinámica, se ha sumado ahora un actor silencioso pero decisivo: la inteligencia artificial.
Esta tecnología, en lugar de ser exclusivamente una promesa de progreso, se revela como un arma de doble filo; capaz de proteger, pero también de destruir con una eficiencia sin precedentes. Comprender su rol en los escenarios de guerra actuales no es un lujo técnico, sino una necesidad ética y política ineludible.
**IA como factor de poder y vulnerabilidad**
Israel ha emergido como una potencia tecnológica en el ámbito de la IA, aplicándola tanto en sistemas de defensa como en inteligencia predictiva. Ejemplos de ello son los sistemas de intercepción antimisiles conocidos como la Cúpula de Hierro (o Iron Dome), que utilizan algoritmos para calcular en fracciones de segundo la trayectoria de proyectiles, o los drones autónomos empleados en operaciones quirúrgicas.
Por su parte, Irán, aunque limitado por sanciones, ha avanzado mediante alianzas con potencias como Rusia y China en el desarrollo de enjambres de drones, vigilancia automatizada y ciberataques. Su uso de IA es estratégico, busca equilibrar la balanza con un enemigo tecnológicamente superior a través de la guerra asimétrica.
Investigaciones recientes alertan que la integración de IA en entornos bélicos representa riesgos graves. Decisiones automatizadas que pueden afectar civiles, fallos algorítmicos letales, y la posibilidad de escaladas sin intervención humana. Como señala el informe de Human Rights Watch (2021), los sistemas autónomos de armamento carecen de la capacidad para distinguir con certeza entre combatientes y no combatientes, lo que podría vulnerar el derecho internacional humanitario.
**Entre la disuasión y la propaganda: IA en el tablero geopolítico**
En este conflicto han crecido informaciones, al igual que acusaciones por la incorporación de la IA en estrategias de comunicación, ciberdefensa y desinformación. La generación de videos falsos, la manipulación de redes sociales y el uso de bots automatizados forman parte de un nuevo campo de batalla donde la narrativa también se libra algorítmicamente. En este contexto, la IA refuerza las capacidades militares de ambos actores mientras amplifica su poder simbólico. Y aunque puede ofrecer ventajas estratégicas, también corre el riesgo de erosionar las barreras morales de la guerra y reducir la supervisión humana en decisiones críticas.
Si pensamos sin temor a equivocarnos, si se cumple la ley de rendimientos crecientes tecnológicos a la que hace referencia Raymond Kurzweil, lo que estamos viendo sería solo la punta del iceberg. La convergencia entre inteligencia artificial, robótica, nanotecnología y biotecnología abre la puerta a un tipo de guerra donde robots terrestres autónomos pudieran combatir entre sí, o donde se utilicen virus manipulados para inocular enfermedades de forma dirigida, entre muchas otras barbaridades de quienes, cegados por la ira de un conflicto, puedan estar sacrificando el futuro de la humanidad. Escenarios que hace décadas eran ciencia ficción, hoy son posibles técnicamente.
El mundo está ante una encrucijada: permitir que la tecnología nos arrastre hacia formas de conflicto cada vez más deshumanizadas o actuar desde la política, el derecho y la ética para establecer límites claros. No se trata solo de prevenir el uso de estas tecnologías para fines militares, sino de impedir que el ser humano se vuelva prescindible en sus propias decisiones vitales.
Porque si bien las guerras pueden cambiar, la humanidad no debe perderse en el proceso.
**Lecturas recomendadas**
Human Rights Watch. (2025). Una amenaza para los derechos humanos. Sistemas de armas autónomas y procesos de toma de decisiones digitales https://www.hrw.org/sites/default/files/media_2025/04/arms0425es_summaryrecs_web_0.pdf
Agregar Comentario