Tecnologia

OpenAI y Meta se esfuerzan por perfeccionar chatbots para auxiliar a adolescentes en situaciones difíciles

8844299007.png

Este contenido fue hecho con la asistencia de una inteligencia artificial y contó con la revisión del editor/periodista.

SAN FRANCISCO (AP) – OpenAI y Meta afirman estar ajustando la forma en que sus chatbots de inteligencia artificial responden a adolescentes y otros usuarios que plantean preguntas sobre el suicidio o manifiestan señales de angustia mental y emocional.

OpenAI, la creadora de ChatGPT, comunicó que está preparando el lanzamiento de nuevos controles que permitirán a los padres vincular sus cuentas a la cuenta de su adolescente.

Los padres podrán seleccionar qué funciones desactivar y “recibir notificaciones cuando el sistema detecte que su adolescente se encuentra en un momento de angustia aguda”, según una publicación en el blog de la empresa, indicando que los cambios se implementarán este otoño.

Independientemente de la edad del usuario, la empresa asegura que sus chatbots redirigirán las conversaciones más angustiantes a modelos de IA mejor entrenados que puedan brindar una respuesta más adecuada.

El anuncio se produce una semana después de que los padres de Adam Raine, de 16 años, demandaran a OpenAI y a su director general, Sam Altman, alegando que ChatGPT guio al joven californiano en la planificación y ejecución de su suicidio a principios de este año.

Meta, la empresa matriz de Instagram, Facebook y WhatsApp, también informó que ahora está impidiendo que sus chatbots hablen con adolescentes sobre autolesiones, suicidio, trastornos alimenticios y conversaciones románticas inapropiadas, y en su lugar los dirige a recursos de expertos. Meta ya ofrece controles parentales en las cuentas de adolescentes.

Un estudio publicado la semana pasada en la revista médica Psychiatric Services encontró inconsistencias en cómo tres populares chatbots de inteligencia artificial respondieron a consultas sobre el suicidio.

El estudio, llevado a cabo por investigadores de RAND Corporation, evidenció la necesidad de “un mayor refinamiento” en ChatGPT, Gemini de Google y Claude de Anthropic. Los investigadores no analizaron los chatbots de Meta.

El autor principal del estudio, Ryan McBain, expresó que “es alentador ver a OpenAI y Meta introduciendo funciones como controles parentales y redirigiendo conversaciones delicadas a modelos mejor capacitados, pero estos son pasos graduales”.

“Sin puntos de referencia de seguridad independientes, pruebas clínicas y estándares aplicables, seguimos confiando en la autorregulación de las empresas en un espacio donde los riesgos para los adolescentes son excepcionalmente altos”, explicó McBain, investigador principal de políticas en RAND.

TRA Digital

GRATIS
VER