MADRID, 14 de octubre (Portaltic/EP) –
Los ciberdelincuentes están utilizando el lenguaje de modelado El gran lenguaje GPT de OpenAI para crear “software” de malware utilizando soporte de inteligencia artificial (IA), a pesar de las limitaciones impuestas por las empresas de tecnología, así como la creación y distribución de contenido en la asociación de redes sociales.
OpenAI ha interrumpido más de 20 actividades maliciosas y redes de phishing que intentaron utilizar su modelo. Además de actividades como escribir publicaciones en redes sociales y depurar «malware», la compañía incluyó una actualización en su informe «Ciberinfluencia y actividad».
Con este análisis, OpenAI pretende comprender los diferentes formas en que los actores maliciosos utilizan modelos avanzados de IA con fines maliciosos, para predecir y planificar completamente las acciones policiales
En este contexto, y a partir de octubre de 2024, la empresa. descubrió que los ciberdelincuentes utilizan modelos de IA «para llevar a cabo tareas durante una fase intermedia específica de la operación», es decir, después de adquirir herramientas básicas como cuentas de redes sociales y correo electrónico, pero antes de «lanzar productos terminados», como las redes sociales. publicaciones en los medios y malware. programa.
En cualquier caso, OpenAI dijo que aunque actores maliciosos estaban usando su modelo, no detectaron que este uso condujera a la posibilidad de explotar una vulnerabilidad significativa del mundo real, lo que significa que no resulta en «la creación de un nuevo malware significativo o la creación de un objeto viral».
Sí, las estafas en las redes sociales ahora llegan a una amplia audiencia, pero en estos casos, aclara, «el beneficio es «El engaño en el uso de la IA, no el uso de la IA en sí misma», sus actividades de ciberataques y también llevó a cabo ataques de phishing» con los que se dirigió a los empleados de la empresa de tecnología, haciéndose pasar por usuarios de ChatGPT que buscaron ayuda del departamento de soporte técnico para infectar y controlar sus computadoras.
Por su parte, el actor iraní STORM-0817 utilizó un modelo de IA para depurar código y obtener ayuda en la programación. El nuevo programa “malware” para Android aún está en desarrollo y es “relativamente rudimentario”. ”, con capacidades de monitoreo estándar. También utilizo ChatGPT para desplegar infraestructura de comando y control.
OpenAI también ha asegurado que en un año donde se espera que más de 2.000 millones de personas participen en el proceso electoral en 50 países de todo el mundo, observaron «No hay casos de actividades de influencia relacionadas con las elecciones que atraigan participación viral o creen audiencias sostenidas» mediante el uso de sus modelos de IA.