Fuente: Notimérica
Archivo – Presentación de los nuevos modelos de IA Claude 3 de Anthropic. – ANTHROPIC – Archivo
MADRID 9 Mar. (EUROPA PRESS) –
Anthropic ha interpuesto una demanda contra el Gobierno de Estados Unidos tras ser señalada por el Departamento de Guerra como un riesgo para la cadena de suministro. La empresa responsable del chatbot ‘Claude’ calificó esta acción como “sin precedentes e ilegal”, alertando sobre el daño “irreparable” que esto supone para la compañía.
El miércoles pasado, Pete Hegseth, secretario de Guerra de EEUU, remitió a Anthropic una carta donde confirmaba la categorización de la ‘startup’ como “riesgo en la cadena de suministro”. Este hecho implica que el uso de sus productos en los sistemas del Departamento de Guerra se considera ahora una amenaza para dicha cadena.
La demanda, presentada en el Tribunal del Distrito Norte de California, argumenta que “todas estas acciones sin precedentes”, incluyendo la directiva del presidente estadounidense Donald Trump y las medidas adoptadas por diferentes agencias en respuesta, “están causando un perjuicio irreparable a Anthropic”.
De acuerdo con la compañía liderada por Dario Amodei, esta situación ha provocado la cancelación de contratos gubernamentales y pone en duda acuerdos actuales y futuros con entidades privadas, “lo que amenaza cientos de millones de dólares a corto plazo”.
Más allá del impacto económico inmediato, Anthropic asegura que su reputación y las libertades fundamentales protegidas por la Primera Enmienda están siendo vulneradas y que, sin intervención judicial, estos daños se intensificarán en las próximas semanas y meses.
“Las medidas impugnadas fueron una represalia contra Anthropic por su discurso y otras actividades protegidas, violando la Primera Enmienda”, señala la demanda. La empresa defiende que la Constitución estadounidense les otorga el derecho a expresar sus opiniones tanto públicamente como ante el Gobierno, que no está obligado a coincidir con ellas ni a utilizar sus productos.
“Estas acciones son inéditas e ilegales. La Constitución prohíbe al Gobierno usar su enorme poder para sancionar a una empresa por ejercer su libertad de expresión”, afirma la firma, que acude al sistema judicial como última instancia para defender sus derechos y frenar lo que califica como una campaña ilegal de represalias por parte del Ejecutivo.
En este contexto, Anthropic subraya que su Política de Uso siempre ha establecido que ‘Claude’ no debe emplearse en dos áreas específicas: guerra autónoma letal y vigilancia masiva dentro de Estados Unidos.
“Anthropic nunca ha probado ‘Claude’ para esos propósitos. Actualmente no se confía en que ‘Claude’ funcione con fiabilidad o seguridad si se utiliza para facilitar la guerra autónoma letal”, sostiene la empresa.
En una carta abierta publicada hace unos días, Amodei señaló que incluso si finalmente la designación del Departamento de Guerra fuera legalmente válida, la mayoría de los clientes de Anthropic no se verían afectados por esta medida.
“La carta del Departamento tiene un alcance limitado porque también lo tiene la ley correspondiente (10 USC 3252)”, afirmaba Amodei, quien considera que esta designación como riesgo en la cadena de suministro “no restringe (ni puede restringir)” el uso de ‘Claude’ ni las relaciones comerciales con Anthropic cuando no estén vinculadas a contratos específicos con el Departamento de Guerra.
“Su propósito es proteger al Gobierno, no castigar a un proveedor”, concluía.
Este contenido fue hecho con la asistencia de una inteligencia artificial y contó con la revisión del editor/periodista.









Agregar Comentario