NUEVA YORK (EFE). — Empleados y exempleados de empresas de inteligencia artificial (IA), como OpenAI, Google DeepMind y Anthropic, denunciaron ayer la falta de transparencia de las empresas sobre los riesgos de la tecnología, aprovechando la ausencia de regulaciones internacionales. “Las empresas de IA tienen información no pública importante sobre las capacidades y limitaciones de sus sistemas, la idoneidad de sus salvaguardias y el nivel de riesgo de diferentes tipos de daños. Sin embargo, actualmente solo tienen vagas obligaciones de confidencialidad para compartir. lo que dijeron en un documento sobre esta información.
La carta fue firmada por 11 empleados y exempleados de la empresa que creó ChatGPT y dos personas de Google DeepMind, uno de los cuales trabajó anteriormente para Anthropic, enfatizó que Los riesgos de la tecnología van desde “aumentar aún más las desigualdades existentes, mediante la manipulación y la desinformación, hasta la pérdida de control de los sistemas autónomos de IA, lo que podría conducir a la extinción humana”. »
Los expertos, algunos de los cuales firmaron de forma anónima, “esperan que estos riesgos puedan mitigarse adecuadamente con una orientación adecuada de la comunidad científica, los responsables políticos y las empresas”. Ellos se dieron cuenta.
La falta de regulación y de estrictos contratos de confidencialidad entre las empresas y sus empleados dificulta la presentación de denuncias contra estas empresas.
Compromiso
Firmantes exigir a las empresas que “se comprometan” a no firmar acuerdos que prohíban “las críticas a la empresa por motivos de riesgo”.
También pidieron el establecimiento de un proceso anónimo en el que empleados y ex trabajadores puedan denunciar “ sus riesgos conciernen a las juntas directivas de las empresas, a los reguladores y a un organismo independiente apropiado con experiencia relevante”.