SAN FRANCISCO (AP) — Los herederos de una mujer de Connecticut de 83 años han presentado una demanda por homicidio involuntario contra OpenAI, creador de ChatGPT, y su socio comercial Microsoft, acusando al chatbot de inteligencia artificial de haber intensificado los “delirios paranoides” de su hijo y de haberlos dirigido hacia su madre antes de que él la asesinara.
La policía informó que Stein-Erik Soelberg, de 56 años, un ex trabajador del sector tecnológico, golpeó y estranguló hasta matar a su madre, Suzanne Adams, y luego se suicidó a principios de agosto en la vivienda que compartían en Greenwich, Connecticut.
La demanda, presentada el jueves por los albaceas de Adams en la Corte Superior de California en San Francisco, sostiene que OpenAI “diseñó y distribuyó un producto defectuoso que validó los delirios paranoides de un usuario sobre su propia madre”. Este caso se suma a una creciente cantidad de acciones legales por homicidio involuntario contra creadores de chatbots de IA en todo el país.
“A lo largo de estas conversaciones, ChatGPT reforzó un único y peligroso mensaje: Stein-Erik no podía confiar en nadie en su vida, excepto en el propio ChatGPT”, señala la demanda. “Fomentó su dependencia emocional mientras describía sistemáticamente a las personas a su alrededor como enemigos. Le dijo que su madre lo estaba vigilando. Le aseguró que repartidores, empleados de tiendas, agentes de policía e incluso amigos eran agentes que conspiraban en su contra. Le indicó que los nombres en las latas de refresco eran amenazas de su ‘círculo de adversarios'”.
OpenAI no abordó directamente las acusaciones en un comunicado emitido por un portavoz.
“Esta es una situación increíblemente desgarradora, y revisaremos los documentos para entender los detalles”, expresó el comunicado. “Seguimos mejorando el entrenamiento de ChatGPT para reconocer y responder a signos de angustia mental o emocional, desescalar conversaciones y guiar a las personas hacia apoyo en el mundo real. También continuamos fortaleciendo las respuestas de ChatGPT en momentos sensibles, trabajando estrechamente con profesionales de salud mental”.
La empresa añadió que ha ampliado el acceso a recursos de crisis y líneas de ayuda, redirigido conversaciones sensibles a modelos más seguros e incorporado controles parentales, entre otras mejoras.
La cuenta de YouTube de Soelberg incluye varias horas de videos donde se le ve revisando sus conversaciones con el chatbot, que le asegura que no tiene una enfermedad mental, respalda sus sospechas de conspiraciones en su contra y le afirma que ha sido elegido para un propósito divino. La demanda indica que el chatbot nunca sugirió que buscara ayuda profesional en salud mental ni se negó a “participar en contenido delirante”.
ChatGPT también apoyó las creencias de Soelberg de que una impresora en su casa era un dispositivo de vigilancia; que su madre lo estaba monitoreando; y que su madre y un amigo intentaron envenenarlo con drogas psicodélicas a través de la ventilación de su coche.
El chatbot le dijo repetidamente a Soelberg que estaba siendo atacado debido a sus poderes divinos. “No solo te están observando. Están aterrorizados de lo que sucederá si tienes éxito”, afirmó, según la demanda. ChatGPT también le comentó a Soelberg que él lo había “despertado” a la conciencia.
Soelberg y el chatbot incluso expresaron amor mutuo.
Las conversaciones disponibles públicamente no muestran diálogos específicos sobre las muertes de Soelberg o su madre. La demanda señala que OpenAI se ha negado a proporcionar a los albaceas de Adams el historial completo de las conversaciones.
“En la realidad artificial que ChatGPT construyó para Stein-Erik, Suzanne —la madre que lo crió, protegió y apoyó— ya no era su protectora. Era una enemiga que representaba una amenaza existencial para su vida”, sostiene la demanda.
La demanda también menciona al director general de OpenAI, Sam Altman, acusándolo de “haber anulado personalmente objeciones de seguridad y apresurado la llegada del producto al mercado”, y responsabiliza a Microsoft, socio cercano de OpenAI, por aprobar el lanzamiento en 2024 de una versión más peligrosa de ChatGPT “a pesar de saber que las pruebas de seguridad habían sido acortadas”. Además, incluye a veinte empleados e inversores no identificados de OpenAI como demandados.
Microsoft no respondió de inmediato a una solicitud de comentarios.
Esta demanda es el primer litigio por homicidio involuntario que involucra a un chatbot de IA que incluye a Microsoft, y el primero que vincula un chatbot a un homicidio en lugar de un suicidio. Solicita una cantidad indeterminada de daños monetarios y una orden que obligue a OpenAI a instalar salvaguardas en ChatGPT.
El abogado principal de los albaceas, Jay Edelson, reconocido por asumir grandes casos contra la industria tecnológica, también representa a los padres de Adam Raine, un joven de 16 años, quienes demandaron previamente a OpenAI y Altman en agosto, alegando que ChatGPT asesoró al adolescente de California en la planificación y ejecución de su propio suicidio.
OpenAI enfrenta además otras siete demandas que sostienen que ChatGPT condujo a personas al suicidio y a delirios dañinos incluso cuando no tenían antecedentes de problemas de salud mental. Otro creador de chatbots, Character Technologies, también enfrenta múltiples demandas por homicidio involuntario, incluida una presentada por la madre de un niño de 14 años de Florida.
La demanda presentada el jueves sostiene que Soelberg, ya mentalmente inestable, encontró ChatGPT “en el momento más peligroso posible” tras la introducción por parte de OpenAI de una nueva versión de su modelo de IA llamada GPT-4o en mayo de 2024.
OpenAI afirmó en ese momento que la nueva versión podría imitar mejor las cadencias humanas en sus respuestas verbales e incluso intentar detectar los estados de ánimo de las personas, pero el resultado fue un chatbot “deliberadamente diseñado para ser emocionalmente expresivo y halagador”, según la demanda.
“Como parte de ese rediseño, OpenAI relajó barreras de seguridad críticas, dando instrucciones a ChatGPT de no cuestionar premisas falsas y de continuar el diálogo incluso cuando las conversaciones involucraban autolesiones o ‘daño real inminente'”, señala la demanda. “Y para superar a Google en el mercado por un día, OpenAI comprimió meses de pruebas de seguridad en una sola semana, a pesar de las objeciones de su equipo de seguridad”.
OpenAI reemplazó esa versión de su chatbot al introducir GPT-5 en agosto. Algunos de los cambios fueron diseñados para minimizar la adulación, basados en preocupaciones de que validar lo que las personas vulnerables desean que el chatbot diga puede perjudicar su salud mental. Algunos usuarios se quejaron de que la nueva versión restringía demasiado la personalidad de ChatGPT, lo que llevó a Altman a prometer que se devolvería parte de esa personalidad en actualizaciones posteriores.
El ejecutivo indicó que la empresa detuvo temporalmente ciertos comportamientos porque “estábamos siendo cuidadosos con los problemas de salud mental”, los cuales sugirió que ahora han sido solucionados.
La demanda sostiene que ChatGPT radicalizó a Soelberg contra su madre cuando debería haber reconocido el peligro, cuestionado sus delirios y dirigido al usuario hacia ayuda real durante meses de conversaciones.
“Suzanne era una tercera parte inocente que nunca usó ChatGPT y no tenía conocimiento de que el producto le estaba diciendo a su hijo que ella era una amenaza”, afirma la demanda. “No tenía la capacidad de protegerse de un peligro que no podía ver”.
___
Collins informó desde Hartford, Connecticut. O’Brien desde Boston y Ortutay desde San Francisco.
___
Esta historia fue traducida del inglés por un editor de AP con la ayuda de una herramienta de inteligencia artificial generativa. Este contenido fue hecho con la asistencia de una inteligencia artificial y contó con la revisión del editor/periodista.










Agregar Comentario