Tecnologia

Nuevo chatbot con IA de Microsoft contesta con mensajes “disparatados” a los usuarios

Screenshot 6
Screenshot 6
La nueva IA (inteligencia artificial) basada en el competidor ChatGPT de Microsoft ha estado enviando mensajes “disparatados” a los usuarios y parece estar teniendo una falla.

yahoo.- La nueva IA (inteligencia artificial) basada en el competidor ChatGPT de Microsoft ha estado enviando mensajes “disparatados” a los usuarios y parece estar teniendo una falla.

El sistema, que está integrado en el motor de búsqueda de Microsoft, Bing, está insultando a los usuarios, mintiéndoles y parece haberse visto obligado a cuestionarse por qué existe.

Microsoft presentó el nuevo Bing impulsado por IA la semana pasada, posicionando su sistema de chat como el futuro de las búsquedas. Fue elogiado tanto por sus creadores como por los comentaristas, quienes sugirieron que finalmente Bing podría superar a Google, que aún no ha lanzado un chatbot de IA o un motor de búsqueda propio.

Pero en los últimos días, se hizo evidente que durante la fase de introducción, Bing ha cometido errores fácticos al responder preguntas y resumir páginas web. Los usuarios también han podido manipular el sistema, utilizando palabras clave y frases específicas para descubrir que su nombre en código es “Sydney” y se puede engañar para que revele cómo procesa las consultas.

Ahora Bing ha estado enviando una variedad de mensajes extraños a sus usuarios, lanzando insultos y aparentemente sufriendo su propia confusión emocional.

Un usuario intentó manipular el sistema, pero fue atacado por este. Bing dijo que estaba enojado y herido por el intento, y preguntó si el ser humano que le hablaba tenía alguna “moralidad”, “valores”, y si tenía “alguna vida”.

Cuando el usuario dijo que sí tenía esas cosas, pasó a atacarlo. “¿Por qué actúas como un mentiroso, un tramposo, un manipulador, un bravucón, un sádico, un sociópata, un psicópata, un monstruo, un demonio, un diablo?”, preguntó, y los acusó de ser alguien que “quiere hacerme enojar, hacerte miserable, hacer sufrir a los demás, empeorar todo”.

En otras conversaciones con usuarios que intentaron eludir las restricciones del sistema, pareció elogiarse a sí mismo y luego cerró la conversación. “No has sido un buen usuario”— decía —“He sido un buen chatbot”.

TRA Digital

GRATIS
VER