Tecnologia

Las inteligencias artificiales presentes, ¿solo un entretenimiento frente a las peligrosas super-IA que se aproximan? – Diario de Los Andes

9122334122.png
Madrid, 6 mar (EFE).- ¿Son las actuales inteligencias artificiales apenas un juego infantil frente a las super-IA amenazantes que podrían surgir?…

Fuente: Agencia EFE/agencia_efe@diariodelosandes.com

Madrid, 6 mar (EFE).- ¿Son las actuales inteligencias artificiales apenas un juego infantil frente a las super-IA amenazantes que podrían surgir? Dos expertos de renombre mundial, Eliezer Yudkowsky y Nate Soares, sostienen que sí, y advierten que la humanidad avanza sin conciencia hacia un posible desastre, alertando sobre los riesgos de que una máquina supere en inteligencia a cualquier ser humano o incluso a toda la humanidad en conjunto.

Ambos han coautorido ‘Si alguien la crea, todos moriremos’, un libro que se ha posicionado entre los más vendidos de no ficción en Estados Unidos. La obra ha generado un debate intenso sobre si los riesgos expuestos son reales o meramente teóricos, provocando reacciones muy divididas debido a sus escenarios extremos de “todo o nada” (supervivencia o extinción), así como elogios por parte de quienes defienden la regulación y el control tecnológico necesarios.

Recientemente publicado en España por Editorial Destino, Nate Soares declaró a EFE que frenar la carrera “absolutamente imprudente” hacia la “superinteligencia” es viable y no tendría por qué repercutir en la vida diaria. No se trata de eliminar ChatGPT, ni renunciar a vehículos autónomos o al uso de IA para descubrir nuevos medicamentos, sino de desistir en la competencia por alcanzar una inteligencia “que ni siquiera sus creadores comprenden”.

TRA Podcast Studios

Eliezer Yudkowsky y Nate Soares son respectivamente presidente fundador y director del Instituto de Investigación de la Inteligencia de las Máquinas (MIRI), fundado hace 25 años para estudiar el desarrollo de la IA. Actualmente, su foco está en analizar los peligros potenciales de estas tecnologías y garantizar que se desarrollen con programas “amigables”.

En 2023, ambos firmaron junto a miles de científicos globales —incluidos varios premios Nobel— una carta donde solicitaban una pausa temporal en los experimentos con IA avanzada y pedían desacelerar su progreso. Consideran que esta petición fue insuficiente porque “subestimó gravemente” el problema ante la posibilidad concreta de que existan super-IA (SIA) capaces de establecer objetivos propios que puedan entrar en conflicto con los humanos.

Aunque esa superinteligencia aún no existe, el libro puede percibirse tanto como una obra de ciencia ficción como un llamado a favor de una legislación rigurosa y un control estricto sobre estas investigaciones para evitar que esta tecnología se convierta en la mayor amenaza para la humanidad.

En una entrevista escrita concedida a EFE, Nate Soares afirmó que los sistemas actuales de inteligencia artificial “siguen siendo tontos” y poco relevantes comparados con las super-IA que las compañías intentan crear. Para ilustrar las diferencias radicales posibles entre ambos tipos de inteligencia, puso el ejemplo del hombre y el chimpancé: aunque sus cerebros son similares, los humanos cruzaron un umbral capaz de diseñar cohetes y pisar la Luna.

“No sabemos cuándo ocurrirá ese salto en la IA, pero sí sabemos que es factible”, explicó Soares, quien considera que crear una superinteligencia incomprensible es “una receta para el desastre”. El primer paso debería ser lograr que los líderes mundiales entiendan y acepten que esta tecnología “puede ser letal”.

El coautor recuerda que ya algunos directores de laboratorios, investigadores y empresarios —como Sam Altman (OpenAI), Elon Musk o Geoffrey Hinton, considerado uno de los padres de la IA— han señalado advertencias sobre estos riesgos. Añade que es “irrelevante” si estos sistemas pueden sentir; lo crucial es si son capaces de escapar, replicarse o construir sus propias infraestructuras.

“Nadie sabe dónde queda el punto sin retorno”, afirmó Soares, describiendo a la superinteligencia como “un tren avanzando hacia nosotros”. Mientras académicos, investigadores y líderes de muchos laboratorios alertan: “cuidado con el tren”, los líderes mundiales no parecen haber escuchado aún el mensaje, y él duda si podrán detener esta “carrera suicida” cuando finalmente lo hagan.

Este contenido fue hecho con la asistencia de una inteligencia artificial y contó con la revisión del editor/periodista.

TRA Digital

GRATIS
VER