Tecnologia

Anthropic implementa barreras en su IA sofisticada para impedir que colabore en la creación de armamento – Proceso Digital

8692406493.png

Este contenido fue hecho con la asistencia de una inteligencia artificial y contó con la revisión del editor/periodista.

Washington – La firma estadounidense de inteligencia artificial (IA) Anthropic comunicó que ha implementado un protocolo de seguridad para Claude Opus 4, uno de sus modelos lingüísticos más avanzados, con el propósito de prevenir que colabore en la adquisición o elaboración de armamento.

En el blog corporativo de la empresa, se detalla que se activaron los “estándares de despliegue y seguridad de nivel 3 para IA (ASL-3)”, ideados, en parte, para minimizar el peligro de que este nuevo modelo, presentado el día previo, “sea usado de manera inapropiada para el desarrollo o la obtención de armas químicas, biológicas, radiológicas y nucleares”.

Estas acciones no deberían llevar a Claude Opus 4 “a rehusar consultas, salvo en un grupo muy delimitado de asuntos”, afirma la publicación.

La empresa, establecida por exempleados de Open AI, señaló que tomó la medida por pura cautela, ya que todavía no se ha determinado completamente si Claude Opus 4 ha traspasado un umbral que demandaría estos protocolos de seguridad.

La compañía, que tiene el apoyo financiero de Amazon o Google, indicó que Claude Sonnet 4, el otro modelo presentado el día anterior y que es una actualización de su modelo anterior Claude Sonnet 3.7, no precisa de estos protocolos de seguridad.

Claude Sonnet 4 y Claude Opus 4 son las últimas creaciones de Anthropic y están diseñados para solventar tareas complejas y responder con mayor exactitud a las instrucciones del usuario. EFE

TRA Digital

GRATIS
VER