Este contenido fue hecho con la asistencia de una inteligencia artificial y contó con la revisión del editor/periodista.
Washington — Los fabricantes de chatbots de inteligencia artificial OpenAI y Meta informaron que están modificando la manera en que sus chatbots responden a los adolescentes y otros usuarios que formulan preguntas sobre el suicidio o demuestran señales de angustia mental y emocional.
OpenAI, creador de ChatGPT, anunció el martes que se prepara para implementar nuevos controles que permitirán a los padres vincular sus cuentas a la cuenta de sus hijos adolescentes.
Los padres podrán escoger qué funciones desactivar y ‘recibir notificaciones cuando el sistema detecte que su hijo adolescente está en un momento de angustia aguda’, según una publicación de blog de la compañía que indica que los cambios entrarán en vigencia este otoño.
Sin importar la edad del usuario, la compañía informa que sus chatbots redirigirán las conversaciones más angustiantes a modelos de IA más competentes que pueden brindar una mejor respuesta.
El anuncio se produce una semana después de que los padres de Adam Raine, de 16 años, demandaran a OpenAI y a su CEO, Sam Altman, alegando que ChatGPT guio al joven de California en la planificación y ejecución de su propia vida a principios de este año.
Meta, la empresa matriz de Instagram, Facebook y WhatsApp, también comunicó que ahora está bloqueando que sus chatbots dialoguen con adolescentes sobre autolesiones, suicidio, trastornos alimentarios y conversaciones románticas inapropiadas, y en su lugar los direcciona a recursos especializados. Meta ya ofrece controles parentales en las cuentas de adolescentes.
Un estudio publicado la semana pasada en la revista médica Psychiatric Services encontró discrepancias en la forma en que tres populares chatbots de inteligencia artificial respondieron a las preguntas sobre el suicidio.
El estudio, llevado a cabo por investigadores de RAND Corporation, halló la necesidad de ‘un mayor perfeccionamiento’ en ChatGPT, Gemini de Google y Claude de Anthropic. Los investigadores no estudiaron los chatbots de Meta.
El autor principal del estudio, Ryan McBain, dijo el martes que ‘es alentador ver a OpenAI y Meta introduciendo funciones como los controles parentales y el enrutamiento de conversaciones delicadas a modelos más capaces, pero estos son pasos graduales’.
‘Sin puntos de referencia de seguridad independientes, pruebas clínicas y estándares aplicables, todavía dependemos de que las empresas se autorregulen en un espacio donde los riesgos para los adolescentes son excepcionalmente altos’, dijo McBain, investigador principal de políticas de RAND.
Agregar Comentario