Este contenido fue hecho con la asistencia de una inteligencia artificial y contó con la revisión del editor/periodista.
Leonardo Cervera (Málaga, 1970) es el español al frente del Supervisor Europeo de Protección de Datos, la autoridad independiente que vela por la privacidad de los ciudadanos de la Unión Europea. Profesor y novelista, es además un firme defensor de poner coto a la inteligencia artificial con una ley “humanista”, pues advierte que esta tecnología puede poner en riesgo los valores de la Unión. Por ello no oculta su preocupación por el ascenso de Trump, el auge de los discursos extremos en redes o el fenómeno de los videos manipulados o deepfakes. Desde su oficina de Bruselas, donde ha trabajado los últimos 26 años, charla con Cinco Días.
R. Más que miedo, diría respeto y curiosidad. El enfoque tecnofóbico no suele dar resultado. El miedo lleva al rechazo y a la parálisis, hay que hacer lo contrario, hay que abrazar esta revolución tecnológica y reconducirla.
R. Ocurre algo parecido con la salud, no te das cuenta de su importancia hasta que la pierdes. La importancia que se le da varía un poco dependiendo de las circunstancias de cada persona. También es un tema generacional, hay mayor concienciación en públicos sénior. Los millennials y las nuevas generaciones le dan menos importancia porque han crecido en un mundo muy tecnológico. Para ellos es algo obsoleto.
R. Toda persona tiene una dignidad universal. Desafortunadamente, últimamente ocurre que el usuario se convierte en objeto del mercado, algo a manipular, a influenciar, ya sea su voto, su hábito de compra… Puede parecer un poco abstracto o filosófico, pero esto puede explicar la mayor parte de los problemas que tenemos y por qué estamos tan polarizados, tan deshumanizados. Sucede porque la tecnología no está respetando este enfoque humanista, tan europeo.
R. El ser humano es un homínido social e influenciable. Vemos el mundo a través de la mirada de los demás con las redes sociales. No somos una isla. Si estas redes nos llevan por el camino de la viralidad, con contenidos agresivos y extremos, la manera en que nosotros vemos el mundo será esa. Por eso tanta gente asume posicionamientos extremos. El algoritmo beneficia el contenido extremo y eso influye decisivamente en la sociedad. Y esto ocurre ya con un uso muy limitado de la inteligencia artificial (IA). Si lo permitimos, se causará mucho daño a la sociedad.
R. Es muy preocupante. Un ingeniero, cuando desarrolla una inteligencia artificial, debería comprometerse a no hacer nada que pueda perjudicar a los usuarios. Cada vez que ha habido disfuncionalidad social hemos terminado en revoluciones y guerras. Tenemos que aprender de la historia y reivindicar que cada profesional y cada persona se comporte con la ética debida. Es muy sencillo.
R. En deepfakes, por ejemplo, es urgente una legislación a nivel europeo que criminalice estas posturas. En aquellos casos donde ya exista regulación lo que hay que hacer es aplicarla bien, que no se hace desgraciadamente en muchos casos, porque o bien el organismo regulador carece de independencia o porque carece de los recursos necesarios. Hay casos excepcionales donde la regulación es excesiva, como las pymes. No es lo mismo aplicar una ley como el Reglamento General de Protección de Datos o de la Inteligencia Artificial a una corporación de miles de empleados que a una pequeña imprenta o a una clínica dental. Lógicamente a las pequeñas empresas hay que facilitarles el trabajo. Creo que Europa ha captado el mensaje y hará cosas. Pero, en general, esto de la desregulación es algo que utilizan como argumento, precisamente, las grandes empresas, que son a las que más hay que regular.
R. Las diferencias en el modelo de innovación de Estados Unidos, la Unión Europea y China son evidentes. Cuando estas diferencias son demasiado grandes existe un serio problema. Con Biden, la Unión Europea y Estados Unidos hacían muchos esfuerzos por reconciliar ambos modelos, y con la llegada de la nueva Administración eso se ha roto. El modelo estadounidense ahora es agresivamente de mercado. Prima la velocidad de innovación sobre la seguridad o el control. Como europeos es motivo de preocupación.
R. Por el bien de la humanidad espero que sí. Hay usos de la IA que exigen control planetario. Se asimila mucho a los riesgos de la energía nuclear. El uso de la IA para finalidades armamentísticas es extremadamente peligroso.
R. Es algo incompatible con nuestro modo de vida europeo, con la manera en que nosotros entendemos el papel del Estado y los derechos de los individuos. Nuestra ley de inteligencia artificial directamente lo prohíbe. Este tipo de uso de la tecnología, que desgraciadamente está avanzando en el mundo, responde a planteamientos iliberales y antidemocráticos. No podemos ni debemos tolerarlo, porque es un torpedo a nuestro sistema de vida. No puede ser que la gente no se atreva a ir a una manifestación porque le pueden grabar la cara y meter en un fichero. O que el Estado espíe lo que pone la gente, los likes en redes sociales, para catalogarlo como de determinado partido, como acaba de anunciar la Administración estadounidense, o para decidir si recibe un visado o no. Es totalmente contrario a nuestros principios. Tenemos que ser muy firmes.
R. Creo que la UE está actuando de forma muy inteligente, con templanza y unidad. Hay que mantener la cabeza fría, desde el respeto y el diálogo. No quiere decir que no haya que ser firmes. La UE lo hará, pero no hay que entrar en una escalada de descalificaciones o términos irrespetuosos. Es la clave de la diplomacia, lo ha sido y lo será.
Agregar Comentario