BRUSELAS.- El 1 de agosto entra en vigor una ley sobre inteligencia artificial (IA) en la Unión Europea, el primer país del mundo que gestiona sistemas que nos permiten actuar con mayor precisión y eficiencia que los humanos en muchos ámbitos e impulsar la innovación, pero al mismo tiempo plantean importantes riesgos que el nuevo marco común intenta evitar.
Estas son las cinco claves principales para la regulación de la Inteligencia Artificial :
OBJETIVO
Establecer un marco legal armonizado en la Unión Europea para desarrollar, comercializar, desplegar y utilizar sistemas de inteligencia artificial (IA), un área que puede generar muchos beneficios pero tiene riesgos potenciales.
A QUIÉN SE APLICA ESTO
Los estándares se aplican a los proveedores de sistemas de IA pedidos o comercializados dentro de la UE o fabricados para su uso en la UE, independientemente de origen
También para los usuarios de estos sistemas, teniendo en cuenta los usuarios que operan estos sistemas.
Esto no se aplica a autoridades públicas de terceros países u organizaciones internacionales cuando utilicen Sistemas de IA en el ámbito de la cooperación policial o judicial con la UE.
No se aplica a sistemas destinados a fines militares o uso en el contexto de la seguridad nacional ni a sistemas utilizados exclusivamente para investigación y desarrollo científicos.
Ciertos sistemas o usos de IA están prohibidos porque entran en conflicto con los valores de la UE, incluido el derecho a la no discriminación, la protección de datos y la privacidad.
Esto incluye a quienes implementan Técnicas subliminales para distorsionar el comportamiento de uno de una manera que pueda causar daño físico o psicológico a otra persona o personas más allá de los sistemas de clasificación. sobre creencias políticas, religiosas, filosóficas o raciales y orientación sexual.
2. Alto riesgo:
Los sistemas de IA de alto riesgo pueden suponer un alto riesgo para los derechos y libertades de las personas físicas y, por tanto, están sujetos a obligaciones estrictas.
3. Sistemas con requisitos de transparencia :
Sus administradores deben cumplir con los requisitos e informes para no engañar a los consumidores de que están interactuando con personas reales o creadas por ellos, por ejemplo propietarios de chatbots o creadores de ‘deepfakes’.
4. – Sistemas de IA de propósito general:
No tienen un objetivo inicial, pero pueden entrenarse o modificarse para lograr un objetivo que pueda convertirlos en sistemas de alto riesgo.
MULTAS
Se ajustarán según las circunstancias y se valorará la escala del proveedor.
Para quienes no cumplan con la normativa, las multas variarán desde 35 millones de euros ($37,6 millones) o el 7% del volumen total de negocios de la empresa, hasta 7,5 millones de euros ($8 millones) o el 1,5% del volumen total de negocios.
SECCIÓN DE APLICACIÓN DE LA LEY
Después de entrar en vigor el 1 de agosto, se aplicará en su totalidad durante 24 meses después, salvo prohibiciones de actos (se aplicarán seis meses después de la fecha de entrada en vigor, que es febrero de 2025).