RT.-La empresa surcoreana Samsung Electronics ha prohibido a sus empleados el uso de herramientas basadas en inteligencia artificial generativa como ChatGPT en el trabajo al descubrir que un código confidencial fue cargado accidentalmente en la plataforma.
El personal de una de las mayores divisiones de la compañía ha sido notificado sobre la nueva política este lunes a través de un memorando. El documento señala el riesgo de que los datos transmitidos a las plataformas de inteligencia artificial, incluidas Google Bard y Bing, se almacenen en servidores externos, lo que dificultaría su recuperación y eliminación, y podrían acabar siendo divulgados a otros usuarios, recoge Bloomberg
«El interés en las plataformas de IA generativa como ChatGPT ha ido creciendo interna y externamente», destaca Samsung en el memorando. «Si bien este interés se centra en la utilidad y la eficiencia de estas plataformas, también hay una creciente preocupación por los riesgos de seguridad que presenta la IA generativa», agregó.
Samsung decidió implementar las nuevas pautas después de que los ingenieros de la empresa filtraran accidentalmente el código fuente interno al subirlo a GhatGPT a principios de abril. Para evitar que la situación vuelva a repetirse, a partir de ahora tienen prohibido usar sistemas de inteligencia artificial generativa en computadoras, tabletas y teléfonos propiedad de la empresa, así como en las redes internas.
Al mismo tiempo, a los empleados que utilizan el ‘chatbot’ en sus dispositivos personales no se les permite compartir ninguna información relacionada con la empresa ni datos personales que puedan revelar su propiedad intelectual. El incumplimiento de las nuevas políticas podría tener como consecuencia el despido, advierte la compañía.