Fuente: Manuel G. Pascual/manuel_g_pascual@elpais.com
Alberto Gago, zaragozano de 39 años, asumió en diciembre la dirección de la Agencia Española de Supervisión de la Inteligencia Artificial (Aesia), la primera entidad de su tipo en la Unión Europea. Con solo año y medio de existencia, esta agencia se encarga de garantizar que los sistemas de inteligencia artificial (IA) utilizados en España cumplan con la normativa vigente. Gago está familiarizado con dicha regulación, ya que formó parte como asesor de la entonces Secretaria de Estado de Digitalización e IA, Carme Artigas, durante las intensas negociaciones que precedieron a la aprobación del Reglamento Europeo de IA, proceso liderado por España durante su presidencia europea.
El Reglamento clasifica los sistemas en cuatro niveles según el riesgo que representan para la sociedad. En el nivel más bajo están los sistemas con riesgo mínimo, como los filtros anti-spam; luego vienen los de riesgo limitado, entre ellos la IA generativa. En un escalón superior figuran los sistemas de alto riesgo, que requieren controles más estrictos y se aplican a sectores como infraestructuras críticas, educación, servicios públicos y privados esenciales, salud o justicia. Finalmente, están los sistemas considerados de riesgo inaceptable, los cuales están prohibidos expresamente (esto incluye sistemas que manipulan conductas cognitivas, puntuaciones sociales o identificación biométrica remota en tiempo real).
Es responsabilidad de cada país impedir el uso de sistemas prohibidos y, dentro de unos meses, también verificar que los sistemas de alto riesgo cumplan con las medidas establecidas. En España, esta función corresponde a Aesia. La agencia tiene su sede en La Coruña y actualmente cuenta con 35 empleados; su meta es alcanzar 50 antes de finalizar el año y continuar creciendo a partir del siguiente. “Nuestro equipo es joven y multidisciplinar. Contamos con ingenieros informáticos y de telecomunicaciones, pero también economistas, sociólogos, filólogos y juristas. Todos son necesarios para comprender las implicaciones sociales de la IA”, explica Gago.
Pregunta. La Aesia es aún poco conocida entre la población. ¿Cuáles son sus responsabilidades concretas?
Respuesta. Estamos en una fase inicial pero ya operamos plenamente. Nuestra misión es generar confianza en el uso de la IA entre los ciudadanos y proporcionar seguridad jurídica a las empresas. La actividad principal es la supervisión de sistemas de IA conforme al Reglamento Europeo. Por ahora solo están vigentes [desde febrero] las obligaciones relativas a ocho sistemas que ya están prohibidos. Hemos realizado un monitoreo exhaustivo de miles de sistemas y podemos afirmar que actualmente no existe ningún sistema prohibido en el mercado español.
P. ¿Cómo realizan esa supervisión?
R. Empleamos varios métodos. Uno es recibir denuncias mediante un buzón abierto al público para consultas o reportes. Además, hacemos seguimiento continuo de medios y del mercado; en ocasiones contactamos directamente con proveedores para aclarar qué funciones tienen sus sistemas. Contamos con un sistema automatizado que inspecciona todos los sectores, aunque prestamos especial atención a infraestructuras críticas y al acceso a servicios públicos y privados esenciales como educación o gestión de becas. Por ahora no podemos evaluar los sistemas catalogados como alto riesgo porque aún se negocia la Ley Ómnibus Digital; cuando concluya ese proceso sabremos si comenzamos a supervisarlos en agosto o diciembre de 2027.
P. ¿Qué otras funciones desempeña la agencia?
R. También nos dedicamos a la formación y alfabetización digital sobre IA. En nuestro primer año hemos respondido ya 700 consultas relacionadas con la aplicación del reglamento, riesgos o beneficios del uso de estas tecnologías. Apoyamos la innovación publicando guías en español e inglés y realizando pruebas prácticas con sistemas de IA en entornos reales. A nivel internacional queremos seguir aportando a los marcos institucionales para gobernar esta tecnología; somos un referente para la Comisión Europea y colaboraremos con el laboratorio de gobernanza de IA ubicado en Valencia. Finalmente, vamos a crear internamente un laboratorio de ideas que analizará el impacto social y económico para anticiparnos a dichos efectos.
P. ¿Cuándo pondrán en marcha este think tank?
R. Prevemos hacerlo a finales de marzo. La intención es analizar junto a expertos nacionales reconocidos cuáles son los desafíos sociales y económicos derivados de la IA, abordando temas como desinformación o mercado laboral. Queremos también interactuar con la sociedad: ir a colegios, institutos, universidades y asociaciones para comprender sus problemas reales.
P. Mencionó antes la Ley Ómnibus que modificará el reglamento apenas dos años después de su entrada en vigor. ¿Consideran adecuada esta reforma?
R. Ninguna negociación es perfecta desde el inicio. Lo consensuado en la UE es que no se debe relajar la regulación sino mejorar su enfoque para ser más precisos. Veo esta ley como una herramienta quirúrgica diseñada por la Comisión para simplificar trámites burocráticos excesivos.
P. Hace dos semanas el presidente del Gobierno instó a la Fiscalía a investigar plataformas sociales por difundir pornografía mediante sus sistemas de IA. ¿Han brindado apoyo técnico en este ámbito?
R. España siempre ha defendido los derechos fundamentales. La decisión del presidente fue valiente y meditada; prohíbe el acceso a menores a redes sociales y sigue ejemplos como Australia o Francia. Se trata finalmente de trasladar al mundo digital los derechos existentes en el mundo físico; si las compañías responsables no garantizan ese respeto debe haber consecuencias. La Aesia contribuirá desde sus competencias: además de alfabetizar a jóvenes sobre IA, podemos colaborar jurídicamente apoyando investigaciones europeas contra proveedores tecnológicos aportando documentación o pruebas; también ayudamos a autoridades policiales o fiscales cuando se investigan delitos penales.
P. ¿Han participado ya en alguna investigación?
R. Para intervenir necesitamos una solicitud formal y hasta ahora no ha ocurrido así.
Este contenido fue hecho con la asistencia de una inteligencia artificial y contó con la revisión del editor/periodista.









Agregar Comentario