Fuente: Edición Impresa/edicion_impresa@yucatan.com.mx
DENUNCIA DE ANTHROPIC SOBRE ATAQUES PARA REPLICAR SU MODELO CLAUDE
NUEVA YORK (EFE). — La firma estadounidense Anthropic denunció una “campaña de ataques de destilación” dirigida a su modelo Claude, señalando a los laboratorios chinos DeepSeek, Moonshot AI y MiniMax por emplear métodos fraudulentos para copiar sus capacidades.
Según la empresa, se trató de un plan coordinado para extraer información de su sistema de inteligencia artificial.
En un comunicado, Anthropic afirmó que “hemos identificado campañas a escala industrial por parte de DeepSeek, Moonshot AI y MiniMax para extraer ilícitamente las capacidades de Claude para mejorar sus propios modelos”. Además, la compañía sostiene que esta acción violó términos de servicio y restricciones regionales de acceso.
Con sede en San Francisco, la tecnológica explicó que los tres laboratorios efectuaron más de 16 millones de interacciones con Claude utilizando alrededor de 24,000 cuentas falsas.
Estas acciones corresponden a lo que la empresa definió como “ataques de destilación”, técnica que consiste en entrenar un modelo menos avanzado basándose en los resultados producidos por uno más sofisticado.
Aunque la destilación es un procedimiento común y legítimo dentro del sector de la IA para optimizar sistemas, Anthropic destacó que en este caso fue realizada de forma “ilícita” al emplear “cuentas fraudulentas y servicios de proxy”, lo que permitió ocultar la ubicación real de los usuarios y acceder a gran escala sin ser detectados.
“La cantidad, la estructura y el enfoque de los ‘prompts’ diferían de los patrones normales de uso, evidenciando una extracción deliberada de capacidades en lugar de un uso legítimo”, argumentó la compañía.
El informe también señaló que DeepSeek habría intentado obtener el razonamiento interno de Claude para generar “alternativas seguras a la censura para consultas políticamente sensibles”.
Anthropic advirtió que los modelos destilados ilegalmente “carecen de las salvaguardas necesarias” para evitar “potenciales desarrollos de armas biológicas o actividades cibernéticas maliciosas”, representando así un “riesgo significativo para la seguridad nacional”.
La empresa solicitó fortalecer los mecanismos protectores frente a este tipo de prácticas dentro del sector.
Este contenido fue hecho con la asistencia de una inteligencia artificial y contó con la revisión del editor/periodista.








Agregar Comentario