BRUSELAS – «Momento histórico», declaración del Ministro de Estado belga para la Digitalización, Mathieu Michel, cuyo país ostenta la presidencia rotatoria de la Unión Europea. En En noviembre, se prohibirán los sistemas de inteligencia artificial utilizados para clasificar datos biométricos basados en creencias políticas, religiosas, filosóficas o raciales y en la orientación sexual.
LO QUE PUEDE PREOCUPAR: Los países están perdiendo la carrera global para dominar los peligros de la IA
Sistemas de calificación de personas en función de su comportamiento o desempeño Tampoco se utilizarán para el desarrollo características personales o inteligencia artificial capaz de manipular el comportamiento humano. o también estaría prohibida la creación indiscriminada de una base de datos de rostros grabados a través de Internet o grabaciones audiovisuales, entre otros actos.
Sin embargo, la normativa La decisión permite excepciones para que las fuerzas de seguridad utilicen identificación biométrica Cámaras de vigilancia, siempre con supervisión judicial. derechos, para prevenir una amenaza terrorista inminente.
Este ha sido uno de los puntos más polémicos en las negociaciones entre el Parlamento Europeo y los Estados miembros, en el que se afirma la necesidad de permitir determinados usos para garantizar la protección de los intereses nacionales. . Por tanto, estos sistemas también pueden utilizarse para localizar a los responsables de delitos de terrorismo, trata de personas, explotación sexual así como para encontrar a las víctimas
Dentro de un año, los criterios de transparencia los marca la inteligencia artificial. los sistemas deben responder, uno de los puntos clave de discusión, ya que programas como ChatGPT están en aumento.
Estos modelos deberán determinar si el texto, las canciones o la foto fueron generados por inteligencia artificial y garantizar que los datos utilizados para entrenar los sistemas respeten los derechos de autor.
En general, la normativa permite o prohíbe el uso de inteligencia artificial en función del riesgo que supone para los humanos e identifica sistemas de alto riesgo que sólo pueden utilizarse si se puede demostrar que respetan los derechos fundamentales.
Por ejemplo, poderes que pueden utilizarse para influir en el resultado de una elección, poderes utilizados por las instituciones financieras para evaluar la solvencia y establecer calificaciones crediticias.
Para quienes no cumplan con la normativa, las multas oscilarán entre 35 millones de euros (37,6 millones de dólares) o 7 litros del volumen de negocio global de la empresa, hasta 7,5 millones de euros (8 millones de dólares). o 1,5 litros de volumen de negocio global negocio global.
Leer texto TEMAS Inteligencia Artificial Law Alliance Europa Bruselas