Tecnologia

Exigen establecer límites a la Inteligencia Artificial mediante un acuerdo internacional

8876319858.png
El llamado mundial a fijar límites a la IA ha sido anunciado por la periodista filipina Maria Ressa, Nobel de la Paz, en la cumbre de la ONU que conmemora el 80.º aniversario de la organización.

Este contenido fue hecho con la asistencia de una inteligencia artificial y contó con la revisión del editor/periodista.

NUEVA YORK (EFE). — Ganadores del Premio Nobel, especialistas en inteligencia artificial (IA) y científicos pidieron ayer la creación de una entidad internacional destinada a limitar los riesgos de la IA, justo antes de las reuniones de alto nivel de la Asamblea General de Naciones Unidas que se celebran esta semana en Nueva York.

La iniciativa, presentada ayer y suscrita por más de doscientas personas y setenta organizaciones, insta a los gobiernos a pactar un acuerdo internacional vinculante que establezca “líneas rojas” para la IA.

“El llamado mundial a fijar límites a la IA ha sido anunciado por la periodista filipina Maria Ressa, Nobel de la Paz, en la cumbre de la ONU que conmemora el 80.º aniversario de la organización. Instamos a los gobiernos de todo el planeta a alcanzar un pacto internacional crucial sobre los límites que la IA jamás debe sobrepasar”, declaró en una rueda de prensa virtual Charbel Segerie, director ejecutivo del Centro Francés para la Seguridad de la IA.

El experto explicó que el objetivo no es reaccionar tras un incidente grave ni castigar violaciones después de los hechos, sino prevenir amenazas a gran escala, potencialmente irreversibles, antes de que se produzcan.

La meta de esta coalición de expertos es obligar a los desarrolladores a demostrar la seguridad de sus sistemas de IA como condición para acceder al mercado, tal y como ocurre en la industria farmacéutica y en la gestión de centrales nucleares.

Las grandes tecnológicas, como Meta, Google y OpenAI, están invirtiendo enormes sumas de dinero para alcanzar la “superinteligencia” o inteligencia artificial general (IAG, en inglés AGI), un hipotético sistema de IA que superaría las capacidades del cerebro humano y que hoy solo existe en la ciencia ficción, aunque según los especialistas podría aparecer en la próxima década.

Stuart Russell, profesor de la Universidad de Berkeley, subrayó que la IA está diseñada para imitar de forma extremadamente eficaz al ser humano.

“El comportamiento humano se orienta a cumplir objetivos: persuadir, impresionar, sobrevivir, seducir, vender, etc. Inevitablemente, los sistemas de IA adoptan y persiguen esos objetivos por sí mismos. Es una consecuencia inevitable de su desarrollo. Son intrínsecamente inseguros”, enfatizó, también director del Centro para la IA Compatible con los Humanos.

Lo que más inquieta a Russell es que los creadores admiten no contar con ningún plan para controlar los sistemas de IA y que, por ahora, los gobiernos carecen de proyectos que les exijan hacerlo.

Russell afirmó que no pretende alarmar, pero que existe una probabilidad “significativa” de una catástrofe del calibre del accidente nuclear de Chernóbil, pues esta tecnología podría desencadenar un sabotaje coordinado de los sistemas financieros, de comunicación o de las redes eléctricas.

“La otra posibilidad es una catástrofe mucho mayor, en la que la humanidad perdería el control de manera irreversible y ya no tendríamos voz ni voto sobre nuestro propio destino”, sostuvo el académico.

Por último, Russell señaló una tercera opción, poco realista, de que nada suceda con el desarrollo e implantación de esta tecnología de vanguardia.

“Un director ejecutivo me comentó recientemente que un evento del tamaño de Chernóbil sería el mejor escenario posible, y un investigador senior de OpenAI me indicó que cree que la probabilidad de extinción humana causada por IA se sitúa ahora en un 60 %”, reveló.

Niki Iliadis, directora de Gobernanza Global de IA en The Future Society, indicó que ya se han dado “primeros pasos importantes”, como la elaboración del código de buenas prácticas de la Unión Europea, pero que ahora es necesario transformar esas normas en regulaciones “globales y aplicables”.

Según Iliadis, probablemente sea preciso crear una nueva institución internacional que pueda definir límites globales para la IA, supervisar su cumplimiento e intervenir cuando se atraviesen esas “líneas rojas”.

TRA Digital

GRATIS
VER