MADRID, 15 de marzo. (Portal/EP) – Un equipo de investigadores descubrió que a pesar del cifrado de extremo a extremo, los ciberdelincuentes aún podían acceder a conversaciones utilizando los chatbots ChatGPT-4 o Copilot a través de un ataque de canal lateral. Expertos del Laboratorio de Investigación de IA Ofensiva y de la Universidad Ben-Gurion (Israel) diseñaron un ataque de canal lateral que permite a actores maliciosos decodificar las respuestas proporcionadas por los asistentes de inteligencia artificial (IA) ofrecidos.
Para ello aprovechan el canal lateral incluido en Microsoft Copilot y ChatGPT-4 de OpenAI, a excepción del “chatbot” desarrollado por Google, Gemini, según confirma el responsable de este laboratorio, Yisroel Mirsky, en Ars Engineering. . Un ataque de canal lateral es un ataque en el que el atacante toma información confidencial del sistema, como el consumo de energía del dispositivo o el tiempo de ejecución, para inferir información confidencial, en lugar de explotar directamente las vulnerabilidades del propio sistema.
Investigadores que estudian las capacidades de la IA con fines maliciosos y los ataques impulsados por esta tecnología han descubierto cómo una campaña de estas características permitía a actores maliciosos leer las llamadas, conversaciones y respuestas de estos ‘chatbots’ aunque estuvieran cifradas. Para resaltar la amenaza que enfrentan estos asistentes, ejecutaron campañas maliciosas contra ChatGPT-4 de OpenAI y Copilot de Microsoft, dirigidas tanto al tráfico del navegador como a las API de la aplicación del navegador (por ejemplo, API). ).
En un artículo conjunto, los expertos explican que existe una brecha significativa en la forma en que los modelos de lenguajes grandes (LLM) manejan la transformación de datos. Generan y envían respuestas como una serie de ‘tokens’ secuenciales cifrados. A pesar de este sistema de seguridad, pueden revelar extensamente y exponer a los atacantes a información sensible y confidencial de las conversaciones que los usuarios tienen con estos “chatbots”.
Para mostrar el problema que pueden causar este tipo de ataques, los investigadores capacitaron a un LLM de última generación para traducir cadenas enteras en oraciones legibles. Esto también se puede proporcionar en el contexto de oraciones previamente inferidas. Finalmente, los desarrolladores, que señalaron que se trata de una vulnerabilidad de seguridad grave, pudieron demostrar cómo un adversario podría explotar el patrón de respuesta predecible y la repetición de frases de LLM para afinar aún más la precisión del modelo.