Nueva York, 4 jun (.).- Un grupo de empleados y exempleados de empresas de IA en inteligencia artificial (IA), como OpenAI, Google (NASDAQ:GOOGL) DeepMind y Anthropic, denunciaron este martes el desconocimiento de las empresas sobre los posibles riesgos de la tecnología de punta al aprovechar la ausencia de regulación internacional.
«Las empresas de IA tienen considerable información sobre las capacidades y limitaciones de sus sistemas, la idoneidad de las salvaguardias y el nivel de riesgo de diferentes tipos de daños. Sin embargo, actualmente tienen más que una vaga obligación de compartir parte de esta información con los gobiernos y no existe ninguna obligación. ¿Con ellos, la sociedad civil?», señala el documento.
La carta fue firmada por 11 trabajadores y ex trabajadores de la empresa que creó ChatGPT y dos personas de Google. DeepMind, uno de los cuales trabajó anteriormente para Anthropic, señala que los posibles riesgos de la tecnología van desde «exacerbar las desigualdades existentes, a través de la manipulación y la desinformación, hasta la pérdida de control sobre los sistemas autónomos de IA, lo que podría conducir a la extinción humana».
Expertos , algunos de los cuales firmaron bajo condición de anonimato, dijeron que “esperan que estos riesgos puedan mitigarse adecuadamente con la orientación adecuada de la comunidad científica, los responsables políticos y el público”. »
“Sin embargo, las empresas de IA se benefician de fuertes incentivos financieros. para evitar una supervisión efectiva, y no creemos que las estructuras personalizadas de gobierno corporativo sean suficientes para cambiar esto», enfatizaron.
Más protecciones para los denunciantes informan
Falta de regulación y los estrictos contratos de confidencialidad entre las empresas y sus empleados complicarán aún más las posibles reclamaciones contra estas empresas de vanguardia, como se indica en el documento.
Al mismo tiempo, los expertos piden a las empresas que se “comprometan” a no entrar en acuerdos que prohíben “las críticas a la empresa debido a preocupaciones sobre riesgos”. También solicitaron el establecimiento de un proceso anónimo mediante el cual los empleados y ex empleados pudieran informar “preocupaciones relacionadas con riesgos a la junta directiva de la empresa, a los reguladores y a una organización independiente”. experiencia relevante”
Inteligencia general artificial
OpenAI, comenzó como un laboratorio de investigación sin fines de lucro y ha alcanzado una gran popularidad con ChatGPT en 2022, que está trabajando para crear artificial general Inteligencia, o A.G.I -un programa capaz de hacer todo lo que los humanos pueden hacer-, según la prensa especializada.
En marzo de 2023, un grupo de emprendedores tecnológicos, expertos y políticos exigieron en una carta apocalíptica que se experimente con poderosa IA serán suspendidos durante seis meses porque creen que «podrían representar riesgos profundos para la sociedad y la humanidad».
Uno de los mayores competidores de los chatbots OpenAI, respaldados por Microsoft, es actualmente Google. pero otras empresas también los están persiguiendo, como Anthropic, una empresa fundada por varios ex empleados de OpenAI.
Esfuerzos débiles en las regulaciones de gestión
Actualmente, no existen regulaciones internacionales sobre inteligencia artificial.
El Parlamento Europeo aprobó el 3 de noviembre la ley de IA de la Unión Europea, siendo el primer país del mundo en regular esta tecnología a nivel global, aunque la ley no entrará en vigor hasta 2026.
L Por su parte, Naciones Unidas destacó ante los Estados miembros la urgencia de acordar un reglamento y llegar a establecer un “consejo de sabios” para tal fin, que hasta la fecha aún no ha sido traducido. en términos concretos.