Londres. Los negociadores de la Unión Europea llegaron a un acuerdo el viernes sobre la primera amplia gama de estándares de inteligencia artificial del mundo, allanando el camino para la supervisión legal de la tecnología utilizada en plataformas populares como ChatGPT, que promete transformar la vida cotidiana y advierte sobre los graves peligros que representa para la humanidad.
Los negociadores del Parlamento Europeo y de los 27 países que componen el bloque han superado diferencias significativas en puntos controvertidos como el uso de IA generada y policías de reconocimiento facial para firmar un acuerdo político provisional de cara a la legislación sobre inteligencia artificial.
¡Es un trato!En un comunicado, el Comisario europeo Thierry Breton tuiteó poco antes de la medianoche. La UE será el primer continente en establecer reglas claras para el uso de la IA.
Los resultados se produjeron después de las largas conversaciones a puerta cerrada de esta semana, con una sesión que duró 22 horas antes de la segunda ronda que comenzó el viernes por la mañana.
Las autoridades proporcionaron pocos detalles sobre qué se incluirá exactamente en la futura legislación que no entrará en vigor hasta al menos 2025. Su objetivo era asegurar una victoria política para esta ley simbólica, pero probablemente necesitaban materializar la letra pequeña que conduciría a una mayor presión interna.
El Parlamento Europeo aún tendrá que votar sobre el acuerdo a principios del próximo año, pero es formal porque está cerrado, dijo Brand Benifei, codirector de los esfuerzos de negociación del organismo.
Aumentan el miedo
Los sistemas generativos de IA como ChatGPT de OpenAI han cautivado a los usuarios con su capacidad para generar texto, fotos y canciones similares a los humanos, pero también han expresado su preocupación por los riesgos que esta tecnología representa para el empleo, la privacidad, la protección de los derechos de autor e incluso la vida humana misma.
Actualmente, Estados Unidos, el Reino Unido, China y coaliciones mundiales como el Grupo de los Siete han presentado sus propias propuestas para regular la IA, pero aún no se han puesto al día con Europa.
Según Anu Bradford, profesora de la Facultad de Derecho de la Universidad de Columbia y experta en regulación digital y de la UE, una regulación sólida y completa de la UE es un buen ejemplo para muchos gobiernos que consideran la regulación.Si bien es posible que otros países no copien todas las disposiciones, probablemente emulen muchos aspectos.
Las empresas de IA que deben cumplir con las normas de la UE probablemente también extenderán algunas de estas obligaciones a los mercados fuera del continente, dijo. Después de todo, no es eficiente entrenar diferentes modelos para diferentes mercados, dijo.
A otros les preocupa que el trato fuera apresurado.
Marcan el comienzo
El acuerdo político de hoy marca el comienzo de un trabajo técnico importante y necesario sobre los detalles clave de la Ley de Inteligencia Artificial, que aún falta, dijo Daniel Friedlaender, director de la Oficina Europea de la Asociación de la Industria de Computadoras y Comunicaciones, un grupo de cabildeo de la industria tecnológica.
El método de IA se diseñó originalmente para reducir el riesgo, de bajo a inaceptable, en función del nivel de riesgo de una función de IA en particular. Pero los legisladores presionaron para extenderlo a un modelo fundamental: sistemas avanzados que admiten servicios genéricos de inteligencia artificial como ChatGPT y el chatbot Bard de Google.
El modelo fundacional parecía ser uno de los mayores obstáculos para Europa. Pero los negociadores pudieron llegar a un acuerdo provisional al comienzo de las negociaciones, a pesar de la oposición francesa que abogaba por la autorregulación para ayudar a las empresas europeas de IA generadas a competir con grandes rivales estadounidenses como Microsoft, el patrocinador de OpenAI.
Estos sistemas, también conocidos como modelos de lenguaje a gran escala, están entrenados en una gran cantidad de trabajos escritos e imágenes tomadas de Internet, y brindan la capacidad de crear otros nuevos en sistemas de IA generativos, a diferencia de la IA tradicional que procesa datos y completa tareas de acuerdo con reglas predeterminadas.
Según el acuerdo, los modelos subyacentes más avanzados que representen el mayor riesgo sistémico estarán sujetos a un escrutinio adicional, incluida la obligación de revelar más información, como la potencia informática utilizada para entrenar el sistema.
Los investigadores advierten que estos poderosos modelos subyacentes, creados por un pequeño número de grandes empresas de tecnología, podrían usarse para potenciar la desinformación y la manipulación en línea, los ataques cibernéticos o la creación de armas biológicas.
El problema más preocupante fue el sistema de monitoreo de reconocimiento facial con IA, y los negociadores llegaron a un compromiso después de intensas negociaciones.
Los legisladores europeos querían prohibir por completo el uso público del escaneo facial y otros sistemas biométricos remotos por razones de privacidad, pero los gobiernos de los Estados miembros querían exenciones para que las fuerzas de seguridad pudieran usarlos para contrarrestar delitos graves como la explotación sexual infantil y los ataques terroristas.