Nueva York.- Un ex empleado de OpenAI firmó esta semana una carta con otros empleados de la empresa que creó ChatGPT para denunciar los posibles riesgos de la inteligencia artificial (IA), resaltando a EFE los peligros de una carrera para crear un súper humano AI más inteligente.
Carroll Wainwright renunció la semana pasada como parte del equipo Federated and Hyperlinked- durante la reunión, asegurando que los modelos más poderosos de OpenAI sean seguro, completo y coherente con los valores humanos
La IA es más inteligente que los humanos
Cuando se lanzó el chatbot ChatGPT, con un éxito que incluso la propia empresa quedó sorprendida. , Wainwright comenzó a trabajar como miembro de un grupo superafiliado para investigar modelos OpenAI cada vez más inteligentes, intervenciones técnicas que se pueden implementar para mantener el control y controlarlos.
A diferencia de la IA generativa, AGI replicará las acciones humanas como escribir o dibujar, que la IA generativa hace y comprende la complejidad y el contexto de sus acciones.
Esta tecnología aún no existe. Algunos expertos, como Elon Musk, predicen que se creará en unos dos años, mientras que otros, como Robin Li, director ejecutivo de Baid, una de las empresas tecnológicas más grandes de China, dice que saldrá en una década.
Wainwright cree que esto se podrá ver en unos cinco años: “¿Seguramente esto sucederá en cinco años? No, pero creo que es posible. Puede que tome más tiempo, pero si hay algo que tiene el potencial de cambiar el mundo, debemos tomarlo muy en serio”, enfatizó.
Sin embargo, el ex trabajador enfatizó que el motivo por el que renunció y firmó la carta no fue porque vio algo “aterrador”, porque actualmente OpenAI solo está investigando oportunidades para crear tecnología.
El cambio de OpenAI
La razón principal de su renuncia fue la cambio en la visión de la empresa, que comenzó como un laboratorio de investigación sin fines de lucro “con la misión de que esta tecnología realmente beneficie a la humanidad”, tras el rotundo éxito de ChatGPT en 2022.
“Creo la fuerza impulsora detrás de OpenAI en “Las acciones cotidianas son casi un impulso para obtener ganancias”, dijo Wainwright.
Los principales riesgos de AGI
Wainwright enfatizó tres riesgos de AGI: máquinas reemplazar a los trabajadores activos en todas las ocupaciones calificadas, sociales e intelectuales, ya que los humanos pueden tener un amigo AI o un asistente personal y, en última instancia, controlar la tecnología.
“El peligro de la AGI: la alineación a largo plazo ocurrirá si se consigue un modelo que es más inteligente que los humanos. ¿Cómo podemos estar seguros de que este modelo realmente hace lo que el ser humano quiere que haga o de que la máquina no tiene ningún propósito propio? Y si tiene su propia agenda, entonces eso es preocupante”, explica.
Carroll Wainwright cree que las grandes empresas de IA cumplirán con las regulaciones, el problema es que actualmente no se están implementando, por lo que en En su carta, los trabajadores del sector pedían la creación de un sistema que permitiera a los trabajadores alertar a un organismo independiente sobre el peligro que perciben en su empresa
Según ex empleados, el problema de la IA. Los gigantes no es la falta de seguridad sino la velocidad a la que se enfrentan con la competencia entre empresas, especialmente entre OpenAI y Google.
“El hecho de que nadie quiera que ellos sufran un desastre no significa”Significa que tómate el tiempo para asegurarte de que eso no suceda, porque están incentivados a competir y vencer a todos”, enfatizó
El Parlamento Europeo aprobó en marzo la ley de IA de la Unión Europea (UE). , el primer país en regular esta tecnología en el mundo, aunque no entrará en vigor hasta 2026 y, como informó este jueves la prensa especializada, los reguladores estadounidenses abrirán investigaciones antimonopolio contra Microsoft, OpenAI y Nvidia para analizar su impacto en la industria. .