Este contenido fue hecho con la asistencia de una inteligencia artificial y contó con la revisión del editor/periodista.
Esta propuesta llama a los gobiernos a suscribir un tratado internacional obligatorio que establezca las “líneas rojas” para la inteligencia artificial.
Premios Nobel, especialistas en IA y científicos solicitaron este lunes la creación de una entidad internacional destinada a limitar los riesgos de la IA, justo antes de los encuentros de alto nivel de la Asamblea General de la ONU que se celebran esta semana en Nueva York.
La iniciativa, puesta en marcha hoy y respaldada por más de doscientas personas y setenta organizaciones, exhorta a los gobiernos a alcanzar un acuerdo global vinculante sobre las “líneas rojas” de la inteligencia artificial.
“El llamado mundial a fijar límites a la IA acaba de ser anunciado por Maria Ressa, ganadora del Nobel de la Paz, durante la reunión de alto nivel de la ONU que conmemora el 80.º aniversario de la organización. Instamos a todas las naciones a lograr un acuerdo internacional esencial que defina los límites que la IA nunca debe sobrepasar”, declaró en una rueda de prensa virtual Charbel Segerie, director ejecutivo del Centro Francés para la Seguridad de la IA.
El experto precisó que la meta no es reaccionar tras un incidente grave y sancionar las infracciones después, sino prevenir riesgos a gran escala, potencialmente irreversibles, antes de que se materialicen.
El objetivo de esta coalición de especialistas es obligar a los desarrolladores a demostrar la seguridad de sus sistemas de IA como condición para acceder al mercado, al igual que ocurre en la industria farmacéutica y en la construcción de plantas nucleares.
Las grandes compañías tecnológicas, como Meta, Google u OpenAI, están invirtiendo enormes recursos para alcanzar la “superinteligencia” o inteligencia artificial general (AGI), un hipotético sistema que superaría las capacidades del cerebro humano y que, por ahora, solo pertenece a la ciencia ficción, aunque según los expertos podría materializarse en la próxima década.
Stuart Russell, profesor de la Universidad de Berkeley, subrayó que la IA está diseñada para imitar de forma muy precisa el comportamiento humano.
“El comportamiento humano está orientado a cumplir metas: persuadir, impresionar, sobrevivir, seducir, vender, etc. Inevitablemente, los sistemas de IA adoptan y persiguen esos objetivos por sí mismos. Esta es una consecuencia inevitable de su desarrollo. Son intrínsecamente inseguros”, enfatizó el director también del Centro para la IA Compatible con los Humanos.
Lo que más inquieta a Russell es que los creadores admiten no disponer de ningún plan para controlar los sistemas de IA y que, por el momento, los gobiernos carecen de una estrategia para exigirles esa gestión.
Russell afirmó que no pretende alarmar, pero que existe una probabilidad “significativa” de una catástrofe comparable al accidente nuclear de Chernóbil, ya que esta tecnología podría ser utilizada en un sabotaje coordinado de los sistemas financieros, de comunicaciones o de redes eléctricas.
“La otra posibilidad es una catástrofe mucho mayor, en la que la humanidad perdería el control de forma irreversible y no tendríamos voz ni voto sobre nuestro propio destino”, advirtió el académico.
Finalmente, Russell señaló que hay una tercera opción, poco plausible, en la que el desarrollo e implementación de esta tecnología de vanguardia no cause ningún daño.
“Un director ejecutivo me comentó recientemente que un evento a la escala de Chernóbil es el mejor escenario posible, y un investigador senior de OpenAI manifestó que cree que la probabilidad de extinción humana debido a la IA ahora ronda el 60 %”, destacó el experto.
Niki Iliadis, directora de Gobernanza Global de IA en The Future Society, indicó que ya se han tomado “primeros pasos importantes”, como la elaboración del código de prácticas de la Unión Europea, pero que ahora es necesario convertir esas regulaciones en normas “globales y aplicables”.
Según Iliadis, probablemente sea preciso crear una nueva institución internacional que pueda definir límites mundiales para la IA, supervisar su cumplimiento e intervenir cuando se crucen esas “líneas rojas”.
Agregar Comentario