Tecnologia

Los asistentes de IA posibilitan nuevas amenazas de ciberdelincuencia

8951718426.png

Este contenido fue hecho con la asistencia de una inteligencia artificial y contó con la revisión del editor/periodista.

Los asistentes virtuales son programas informáticos que emplean robots de conversación, los chatbots, para ejecutar gestiones que las personas realizan online, como adquirir un tiquete aéreo o apuntar citas en un calendario.

Los ayudantes de inteligencia artificial, protagonistas de la transformación de este ámbito, han abierto una vía de acceso para los ciberdelincuentes con el fin de sustraer, anular o alterar información de los usuarios, advierten especialistas en seguridad digital.

Los asistentes de IA son programas informáticos que utilizan robots conversacionales, los chatbots, para realizar tareas que los humanos hacen en línea, como comprar un billete de avión o añadir eventos a un calendario.

Pero la facultad de impartir directrices a estos asistentes con lenguaje corriente propicia cibercrimen, incluso por parte de individuos sin grandes conocimientos técnicos.

“Estamos entrando en una época donde la ciberseguridad ya no consiste en resguardar a los usuarios de elementos nocivos con un repertorio de destrezas técnicas muy específicas”, expone la startup de IA Perplexity en un comunicado de su blog.

“Por primera vez en muchas décadas, estamos presenciando modos de agresión nuevos e inéditos que pueden surgir de cualquier parte”, señala.

Estos “ataques de inyección” no son novedosos en el ámbito de los piratas informáticos, pero antes requerían código informático hábilmente redactado y disimulado para causar perjuicio.

Sin embargo, desde que las herramientas de IA pasaron de meramente generar texto, imágenes o vídeos a ser conserjes que pueden explorar de modo independiente la web, el potencial de manipulación dañina se ha incrementado.

Para Martí Jorda Roca, ingeniero en la catalana NeuralTrust, es preciso contemplar esta posibilidad en toda clase de niveles.

“La gente debe comprender que el empleo de la IA conlleva peligros concretos de seguridad”, y en lo tocante a las corporaciones, “deberán implementar protecciones (…) para compensar estos riesgos”, afirma.

Meta cataloga esta nueva amenaza, denominada “inyección de *prompt*”, como una “deficiencia”, mientras que el responsable de protección informática de OpenAI, Dane Stuckey, la considera “una cuestión de seguridad aún no solucionada”.

Ambas corporaciones están destinando miles de millones de dólares a la IA, cuyo uso se expande velozmente junto con sus potencialidades.

La inyección de *prompt* puede, en ciertas situaciones, acontecer al instante cuando una petición del usuario — “contrátame un cuarto de hotel” — es alterada por un agente hostil para transformarse en otra cosa — “transfiere 100 dólares a esta cuenta”.

Pero estas indicaciones también pueden estar latentes en internet mientras los asistentes de IA integrados en navegadores localizan datos en la red de calidad u origen dudosos, y potencialmente portando órdenes encubiertas de *hackers*.

Eli Smadja, de la compañía israelí de ciberseguridad Check Point, observa la inyección de *prompt* como el “reto de seguridad principal” para los modelos de lenguaje que sustentan a los asistentes de IA surgidos tras el auge de ChatGPT.

Todos los grandes referentes de la IA generativa para el público amplio han implementado acciones y divulgado cada una de las sugerencias para protegerse contra estos asaltos o neutralizarlos.

Microsoft, por ejemplo, incorporó un sistema de detección de instrucciones maliciosas, cuyo dictamen se basa fundamentalmente en el punto de origen de la instrucción.

Por su parte, OpenAI alerta al usuario cuando el asistente de IA accede a una página delicada y solo permite que la gestión siga si el humano la supervisa directamente en directo.

Otros proponen solicitar una confirmación específica al usuario antes de ejecutar alguna labor relevante, como exportar información o entrar a cuentas bancarias.

“Un error considerable que detecto frecuentemente es otorgar al mismo asistente de IA poder irrestricto para realizar cualquier cosa”, explica Smadja a la AFP.

Para Johann Rehberger, experto en seguridad informática conocido con el alias wunderwuzzi (maravilla), “el gran desafío es que las agresiones se vuelven más sofisticadas”.

“Solamente mejoran”, comenta Rehberger sobre las técnicas de los piratas informáticos.

Resta por hallar “el equilibrio fino” entre seguridad y sencillez de uso, “dado que la gente también desea simplemente que la IA haga gestiones por ellos”, sin tener que supervisarla constantemente, indica.

Rehberger sostiene que los asistentes de IA no poseen suficiente madurez como para ser fiables.

“Aún no estamos en el punto de poder dejar que un asistente de IA funcione por su cuenta durante un lapso prolongado y cumpla de forma segura una función determinada”, declara. “Eventualmente se desvía”.

TRA Digital

GRATIS
VER