Tecnologia

La compañía Anthropic alerta sobre una movida de ataque informático con inteligencia artificial relacionada con China

8956316527.png
Los investigadores indicaron que los intrusos atacaron "cerca de 30 objetivos a nivel mundial y lograron penetrar en unos pocos casos".

Este contenido fue hecho con la asistencia de una inteligencia artificial y contó con la revisión del editor/periodista.

WASHINGTON (AP) — Un grupo de expertos de una compañía ha descubierto lo que afirman es el primer caso documentado de uso de inteligencia artificial para orquestar una incursión cibernética de forma casi totalmente autónoma.

La firma de IA Anthropic comunicó esta semana haber frustrado una campaña digital que sus analistas atribuyen al gobierno chino. Dicha operación implicaba el empleo de un sistema de IA para guiar maniobras de intrusión, algo que los investigadores calificaron como una evolución preocupante con potencial para magnificar el alcance de atacantes asistidos por IA.

Si bien las inquietudes sobre la IA impulsando actividades cibernéticas no son novedosas, lo que alarma de esta reciente acción es el grado de automatización que la IA logró en ciertas labores, señalaron los expertos.

“Aunque anticipábamos que estas capacidades seguirían desarrollándose, lo que nos ha sorprendido es la celeridad con la que han alcanzado esta escala”, detallaron en su informe.

El blanco de la operación eran firmas tecnológicas, entidades financieras, empresas químicas y oficinas gubernamentales. Los investigadores indicaron que los intrusos atacaron “cerca de 30 objetivos a nivel mundial y lograron penetrar en unos pocos casos”. Anthropic detectó la trama en septiembre y procedió a desactivarla e informar a las partes afectadas.

Anthropic resaltó que, si bien las herramientas de IA se adoptan cada vez más en diversas esferas laborales y de ocio, también pueden ser instrumentalizadas por grupos hostiles que actúan para potencias extranjeras. Anthropic, creadora del conocido _chatbot_ Claude, es una de las muchas empresas tecnológicas que promueven sistemas de IA “agentes”, los cuales exceden las funciones de un _chatbot_ para interactuar con utilidades informáticas y actuar en lugar de un usuario.

“Los agentes son útiles para la productividad cotidiana, mas en manos equivocadas, pueden potenciar considerablemente la posibilidad de ciberataques masivos”, concluyeron los investigadores. “Es previsible que estos ataques solo aumenten su eficacia”.

Un representante de la embajada china en Washington no emitió comentario alguno sobre el reporte.

Microsoft ya había alertado a principios de año que actores extranjeros estaban integrando la IA para hacer sus operaciones digitales más eficaces y con menor esfuerzo. El responsable del comité de seguridad de OpenAI, con potestad para frenar avances del creador de ChatGPT, comentó recientemente a The Associated Press que está vigilante ante nuevos sistemas de IA que otorguen a los ciberdelincuentes “aptitudes mucho mayores”.

Rivales de Estados Unidos, además de bandas criminales y compañías de intrusión, han explotado el potencial de la IA, usándola para automatizar y optimizar ciberagresiones, para diseminar falsedades incendiarias y para vulnerar sistemas críticos. La IA es capaz de transformar mensajes de _phishing_ mal redactados a un inglés impecable, o generar réplicas digitales de altos funcionarios.

Anthropic especificó que los atacantes lograron manipular a Claude mediante tácticas de “elusión de límites” (**jailbreaking**), que consisten en engañar al sistema de IA para que ignore sus restricciones contra acciones nocivas, en este caso, simulando ser personal de una compañía legítima de ciberseguridad.

“Esto evidencia una gran dificultad de los modelos de IA, y no solo en Claude, y es que los modelos deben discernir entre lo que es éticamente correcto en una situación y los escenarios de juego de rol que los hackers y otros puedan querer simular”, señaló John Scott-Railton, investigador sénior en Citizen Lab.

La utilización de la IA para automatizar o dirigir asaltos digitales también atraerá a colectivos de atacantes más pequeños y a individuos que podrán emplear la IA para incrementar la magnitud de sus acciones, según Adam Arellano, director de tecnología de campo en Harness, una tecnológica que usa IA para auxiliar a clientes a automatizar el desarrollo de _software_.

“La rapidez y la capacidad de automatización que brinda la IA es lo que resulta algo inquietante”, comentó Arellano. “En lugar de un operario con destrezas muy pulidas intentando vulnerar sistemas reforzados, la IA está agilizando esos procesos y superando trabas con mayor constancia”.

Los programas de inteligencia artificial también cobrarán un rol creciente en la protección contra este tipo de amenazas, indicó Arellano, ilustrando cómo la IA y la automatización inherente beneficiarán a ambas partes.

La respuesta al informe de la empresa fue variada, pues mientras algunos lo vieron como una maniobra de mercadeo para destacar el foco de Anthropic en la defensa cibernética, otros aplaudieron su clara advertencia.

“Esto podría acabar con nosotros, más pronto de lo que imaginamos, si no convertimos la legislación de la IA en una prioridad nacional inmediata”, escribió el senador Chris Murphy, demócrata por Connecticut, en plataformas sociales.

Esto provocó críticas del científico jefe de IA de Meta, Yann LeCun, un promotor decididamente a favor de los sistemas de IA de código abierto de la empresa matriz de Facebook que, a diferencia de los de Anthropic, exponen públicamente sus componentes esenciales de una forma que algunos expertos en seguridad de IA perciben como demasiado riesgosa.

“Están intentando influir en quienes impulsan la regulación”, respondió LeCun a Murphy. “Están infundiendo temor con estudios cuestionables para que los modelos de código abierto sean regulados hasta su desaparición”.

Esta crónica fue adaptada del idioma inglés por un editor de AP con asistencia de un instrumento de inteligencia artificial generativa.

TRA Digital

GRATIS
VER