WASHINGTON (AP) — Mientras el resto del mundo se apresura a aprovechar el poder de la inteligencia artificial, los grupos extremistas también están experimentando con esta tecnología, aunque no siempre tienen claro cómo utilizarla exactamente.
Para las organizaciones extremistas, la IA podría convertirse en una herramienta poderosa para reclutar nuevos miembros, generar imágenes deepfake realistas y perfeccionar sus ciberataques, según advierten expertos en seguridad nacional y agencias de espionaje.
El mes pasado, alguien que publicó en un sitio web pro-Estado Islámico instó a otros simpatizantes a incorporar la IA en sus operaciones. “Una de las mejores cosas de la IA es lo fácil que es de usar”, escribió el usuario en inglés.
“Algunas agencias de inteligencia temen que la IA contribuya al reclutamiento”, añadió. “Así que conviertan sus pesadillas en realidad”.
El EI, que hace años tomó territorio en Irak y Siria pero que ahora es una alianza descentralizada de grupos que comparten una ideología violenta, reconoció hace tiempo que las redes sociales podían ser una herramienta potente para el reclutamiento y la desinformación, por lo que no sorprende que el grupo esté explorando el uso de la IA, afirman expertos en seguridad nacional.
Para grupos extremistas poco organizados y con escasos recursos, o incluso para individuos malintencionados con acceso a internet, la IA puede emplearse para difundir propaganda o deepfakes a gran escala, ampliando así su alcance e influencia.
“Para cualquier adversario, la IA realmente facilita mucho las cosas”, explicó John Laliberte, ex investigador de vulnerabilidades en la Agencia de Seguridad Nacional y actual CEO de la firma de ciberseguridad ClearVector. “Con la IA, incluso un grupo pequeño que no tiene mucho dinero puede tener un impacto”.
Los grupos radicales comenzaron a usar la IA tan pronto como programas como ChatGPT se hicieron ampliamente accesibles. En los años siguientes, han incrementado el uso de programas de IA generativa para crear fotos y videos de apariencia realista.
Cuando se combinan con algoritmos de redes sociales, este contenido falso puede ayudar a reclutar nuevos creyentes, confundir o intimidar a los enemigos y difundir propaganda a una escala inimaginable hace solo unos años.
Hace dos años, estos grupos difundieron imágenes falsas de la guerra entre Israel y Hamás que mostraban bebés ensangrentados y abandonados en edificios bombardeados. Estas imágenes provocaron indignación y polarización, opacando los horrores reales del conflicto. Grupos violentos en Oriente Medio usaron las fotos para reclutar nuevos miembros, al igual que grupos de odio antisemita en Estados Unidos y otros lugares.
Algo similar ocurrió el año pasado tras un ataque reivindicado por un afiliado del EI que mató a casi 140 personas en un lugar de conciertos en Rusia. En los días posteriores al tiroteo, videos de propaganda creados por IA circularon ampliamente en foros de discusión y redes sociales, buscando nuevos reclutas.
El EI también ha producido grabaciones de audio deepfake de sus propios líderes recitando escrituras y ha utilizado la IA para traducir rápidamente mensajes a múltiples idiomas, según investigadores del Grupo de Inteligencia SITE, una firma que rastrea actividades extremistas y ha estudiado el uso evolutivo de la IA por parte del EI.
Estos grupos están rezagados respecto a China, Rusia o Irán, y para ellos el uso de la IA es “solo una aspiración”, según Marcus Fowler, ex agente de la CIA y actual CEO de Darktrace Federal, una firma de ciberseguridad que trabaja con el gobierno federal.
Sin embargo, los riesgos son demasiado altos para ignorarlos y es probable que aumenten a medida que se expanda el uso de IA barata y poderosa, advirtió.
Los hackers ya emplean audio y video sintéticos en campañas de phishing, intentando hacerse pasar por líderes empresariales o gubernamentales para acceder a redes sensibles. También pueden usar la IA para escribir código malicioso o automatizar ciertos aspectos de los ciberataques.
Más preocupante es la posibilidad de que los grupos extremistas intenten usar la IA para ayudar a producir armas biológicas o químicas, compensando así la falta de experiencia técnica. Este riesgo fue incluido en la Evaluación de Amenazas a la Seguridad Nacional actualizada del Departamento de Seguridad Nacional, publicada a principios de este año.
“El EI se metió en Twitter temprano y encontró formas de usar las redes sociales a su favor”, declaró Fowler. “Siempre están buscando lo próximo para agregar a su arsenal”.
Los legisladores han propuesto varias iniciativas, señalando la necesidad urgente de actuar.
El senador Mark Warner de Virginia, principal demócrata en el Comité de Inteligencia del Senado, afirmó, por ejemplo, que Estados Unidos debe facilitar que los desarrolladores de IA compartan información sobre cómo sus productos están siendo usados por actores malintencionados, ya sean extremistas, hackers criminales o espías extranjeros.
“Ha sido evidente desde finales de 2022, con la publicación de ChatGPT, que la misma fascinación y experimentación con la IA generativa que ha tenido el público también se aplicaría a una variedad de actores malignos”, indicó Warner.
Durante una reciente audiencia sobre amenazas extremistas, legisladores de la Cámara de Representantes supieron que el EI y Al Qaeda han realizado talleres de capacitación para ayudar a sus simpatizantes a aprender a usar la IA.
La legislación aprobada por la Cámara de Representantes el mes pasado exige que los funcionarios de seguridad nacional evalúen anualmente los riesgos que la IA plantea por parte de tales grupos.
Protegerse contra el uso malicioso de la IA no difiere de prepararse para ataques más convencionales, señaló el representante August Pfluger, republicano de Texas y patrocinador de la ley.
“Nuestras políticas y capacidades deben mantenerse al ritmo de las amenazas del mañana”, afirmó.
___________________________________
Esta historia fue traducida del inglés por un editor de AP con ayuda de una herramienta de inteligencia artificial generativa. Este contenido fue hecho con la asistencia de una inteligencia artificial y contó con la revisión del editor/periodista.









Agregar Comentario