Tecnologia

Anthropic rechaza las exigencias del Pentágono sobre medidas de seguridad en IA

9109862383.png
Anthropic, creadora del chatbot Claude, puede permitirse perder un contrato con defensa.

Fuente: Chicago Tribune

CONFLICTO ENTRE EL GOBIERNO DE TRUMP Y ANTHROPIC LLEGA A UN IMPASSE POR POLÍTICAS ÉTICAS EN IA

WASHINGTON (AP) — Un enfrentamiento público entre la administración de Trump y Anthropic alcanzó un punto muerto, mientras que funcionarios militares exigen a la empresa de inteligencia artificial que flexibilice sus políticas éticas antes del viernes, advirtiendo que podrían poner en riesgo su negocio.

El director ejecutivo de Anthropic, Dario Amodei, estableció una línea roja clara 24 horas antes del plazo, afirmando que su compañía “no puede, en conciencia, aceptar” la última exigencia del Pentágono para permitir un uso irrestricto de su tecnología.

Anthropic, creadora del chatbot Claude, puede permitirse perder un contrato con defensa. Sin embargo, el ultimátum emitido esta semana por el secretario de Defensa, Pete Hegseth, plantea riesgos mayores en el punto culminante del rápido crecimiento de la firma, que pasó de ser un laboratorio poco conocido en San Francisco a una de las startups más valoradas globalmente.

Si Amodei no accede, las autoridades militares señalaron que no solo cancelarán el contrato con Anthropic, sino que también “los considerarán un riesgo para la cadena de suministro”, una calificación usualmente aplicada a adversarios extranjeros y que podría poner en peligro alianzas comerciales clave.

Por otro lado, si Amodei cede, podría perder la confianza dentro de la incipiente industria de IA, especialmente entre los talentos destacados atraídos por sus promesas de desarrollar responsablemente una inteligencia artificial avanzada que sin controles podría representar riesgos graves.

Anthropic indicó haber solicitado al Pentágono garantías limitadas para evitar que Claude se use en vigilancia masiva dentro de Estados Unidos o en armas totalmente autónomas. Sin embargo, luego de meses de negociaciones privadas que derivaron en un debate público, la empresa señaló el jueves en un comunicado que nuevos términos contractuales, presentados como consensuados, incluían cláusulas legales que permitirían pasar por alto esas salvaguardas cuando se desee.

Esto ocurrió tras un mensaje del portavoz principal del Pentágono, Sean Parnell, en redes sociales donde aseguró que “no permitiremos que NINGUNA empresa imponga condiciones sobre cómo tomamos decisiones operativas”. Añadió que Anthropic tiene “hasta las 5:01 p.m. del viernes, hora del Este, para decidir” si cumple las demandas o enfrenta consecuencias.

Emil Michael, subsecretario de Defensa para investigación e ingeniería, criticó posteriormente a Amodei en X calificándolo de tener “un complejo de Dios” y acusándolo de intentar controlar personalmente a las Fuerzas Armadas estadounidenses y poner en riesgo la seguridad nacional.

TRA Podcast Studios

No obstante, este mensaje no ha tenido gran repercusión en Silicon Valley, donde numerosos trabajadores tecnológicos de los principales competidores de Anthropic —OpenAI y Google— manifestaron su respaldo a Amodei mediante una carta abierta publicada el jueves por la tarde.

OpenAI y Google, junto con xAI de Elon Musk, también cuentan con contratos para proveer modelos de IA al ejército.

El viernes Musk se posicionó junto al gobierno republicano durante la administración Trump y escribió en X que “Anthropic odia a la civilización occidental”, luego de que Michael destacara una versión previa de los principios rectores de Claude que promovía la “consideración de perspectivas no occidentales”. Todos los modelos principales de IA —incluidos Grok de Musk y ChatGPT de OpenAI— están programados con instrucciones que guían sus valores y comportamiento; Anthropic denomina esta guía como una constitución.

Aunque algunos aliados tecnológicos cercanos a Trump —como Musk y Palmer Luckey, cofundador del contratista Anduril— se han sumado al conflicto, el debate polarizado sobre la “IA woke” ha colocado a otros en una situación incómoda.

“La negociación del Pentágono con Google y OpenAI busca hacerles aceptar lo que Anthropic ha rechazado”, señala la carta abierta firmada por empleados de ambas compañías. “Intentan dividir a cada empresa usando el miedo a que la otra ceda”.

En un giro inesperado proveniente de uno de los rivales más acérrimos de Amodei, el director ejecutivo de OpenAI, Sam Altman, apoyó el viernes a Anthropic y cuestionó las medidas “amenazantes” del Pentágono durante una entrevista con CNBC. Sugirió además que OpenAI y gran parte del sector coinciden en establecer límites similares. Cabe recordar que Amodei trabajó anteriormente en OpenAI hasta renunciar junto a otros líderes para fundar Anthropic en 2021.

“A pesar de nuestras diferencias con Anthropic, confío en ellos como empresa y creo que realmente se preocupan por la seguridad”, expresó Altman a CNBC. “Me alegra que hayan respaldado a nuestros combatientes. No sé qué sucederá”.

Legisladores republicanos y demócratas, así como un exlíder en iniciativas de IA del Departamento de Defensa también manifestaron preocupación frente al enfoque adoptado por el Pentágono.

“Poner a Anthropic bajo presión genera titulares llamativos pero al final todos pierden”, escribió en redes sociales el general retirado Jack Shanahan.

Shanahan enfrentó oposición distinta durante el primer mandato de Trump mientras dirigía Maven —un proyecto para aplicar IA al análisis de imágenes captadas por drones con fines bélicos— cuando muchos empleados protestaron dentro de Google y llevaron a la empresa a no renovar ese contrato y comprometerse a no usar IA para armamento.

“Como estuve involucrado directamente con Maven y Google, es lógico pensar que apoyaría al Pentágono aquí”, señaló Shanahan el jueves. “Sin embargo simpatizo más con Anthropic ahora que con Google en 2018”.

Destacó además que Claude ya se usa ampliamente en entornos gubernamentales incluso clasificados, y consideró razonables las líneas rojas planteadas por Anthropic. Añadió que los grandes modelos lingüísticos detrás de chatbots como Claude “no están aún preparados para operaciones sensibles nacionales”, especialmente armas totalmente autónomas.

“No intentan engañar ni hacerse los listos”, concluyó.

Parnell afirmó el jueves que el Pentágono busca “utilizar el modelo de Anthropic para todos los fines legítimos” y subrayó que ampliar su uso impediría que la empresa “comprometa operaciones militares cruciales”. No obstante, ni él ni otros funcionarios han explicado detalladamente cómo pretenden emplear esta tecnología.

El ejército “no tiene interés en realizar vigilancia masiva ilegal contra estadounidenses ni quiere desarrollar armas autónomas sin supervisión humana”, escribió Parnell.

Durante una reunión entre Hegseth y Amodei el martes pasado, funcionarios militares advirtieron sobre posibles designaciones contra Anthropic como riesgo para la cadena suministro; asimismo podrían cancelar contratos o invocar una ley vigente desde la Guerra Fría llamada Ley de Producción para Defensa. Esta ley otorgaría al ejército mayor autoridad para usar productos aun sin aprobación empresarial.

Amodei respondió el jueves señalando que estas dos últimas amenazas son contradictorias: una lo señala como riesgo; la otra considera esencial su producto para seguridad nacional. Expresó su deseo porque el Pentágono reconsidere dado el valor estratégico del chatbot Claude; pero si no ocurre así anunció disposición para facilitar una transición ordenada hacia otro proveedor.

Esta historia fue traducida del inglés por un editor de AP con asistencia de una herramienta generativa basada en inteligencia artificial.

Este contenido fue hecho con la asistencia de una inteligencia artificial y contó con la revisión del editor/periodista.

TRA Digital

GRATIS
VER