Este contenido fue hecho con la asistencia de una inteligencia artificial y contó con la revisión del editor/periodista.
Nueva York – Premios Nobel, especialistas en inteligencia artificial (IA) y académicos pidieron este lunes la conformación de una entidad internacional que establezca barreras frente a los peligros de esta tecnología, justo antes de los encuentros de alto nivel de la Asamblea General de la ONU en la ciudad.
La propuesta, avalada por más de 200 figuras públicas y 70 instituciones, sugiere la firma de un pacto internacional obligatorio que delimite las “líneas rojas” que nunca debe traspasar la IA.
“Este llamado global fue anunciado por la laureada con el Nobel de la Paz, Maria Ressa, durante la reunión de alto nivel que celebra el 80.º aniversario de la ONU. Instamos a los gobiernos a alcanzar un acuerdo internacional esencial sobre los límites que la IA no debe sobrepasar”, declaró en una rueda de prensa virtual Charbel Segerie, director ejecutivo del Centro Francés para la Seguridad de la IA.
Quizá te interese: la Casa Blanca confirma haber recibido una carta con “muchas mentiras” enviada por Maduro.
Segerie puntualizó que la finalidad es impedir riesgos a gran escala, “potencialmente irreversibles”, antes de que se materialicen, en vez de sancionar infracciones después de un evento grave. La coalición de expertos pretende que los creadores de IA tengan la obligación de demostrar la fiabilidad de sus sistemas como requisito para acceder al mercado, tal como ocurre en la industria farmacéutica o en las centrales nucleares.
Las grandes corporaciones tecnológicas como Meta, Google y OpenAI están destinando recursos considerables al desarrollo de la llamada superinteligencia o inteligencia artificial general (IAG), un posible sistema capaz de superar las capacidades del cerebro humano, que por ahora reside en el ámbito de la ciencia ficción, aunque algunos expertos advierten que podría concretarse en la próxima década.
El profesor Stuart Russell, de la Universidad de California, Berkeley, advirtió que la IA “está diseñada para imitar el comportamiento humano y, por lo tanto, perseguir metas propias como persuadir, impresionar, sobrevivir o vender. Eso la vuelve intrínsecamente insegura”. Subrayó que los desarrolladores reconocen no contar con un plan para controlar los sistemas de IA y que, hasta el momento, los gobiernos tampoco han creado mecanismos de exigencia.
Russell sostuvo que existe una probabilidad “significativa” de que se desencadene una catástrofe de la magnitud de Chernóbil, pues esta tecnología podría facilitar sabotajes coordinados en sistemas financieros, de comunicaciones o en redes eléctricas. “La otra posibilidad es una catástrofe mucho mayor, en la que la humanidad perdería el control de forma irreversible”, advirtió.
Incluso citó testimonios del sector: “Un director ejecutivo me comentó que un incidente del calibre de Chernóbil sería el mejor escenario posible, y un investigador sénior de OpenAI estimó que la probabilidad de extinción humana a causa de la IA es del 60 %”.
Por su parte, Niki Iliadis, directora de Gobernanza Global de IA en The Future Society, resaltó avances como el código de prácticas de la Unión Europea, pero insistió en que se requieren regulaciones “globales y aplicables”.
“Probablemente sea necesario crear una nueva institución internacional que defina los límites mundiales de la IA, supervise su cumplimiento e intervenga cuando se vulneren esos límites”, concluyó Iliadis.
Agregar Comentario