Salud

¿Es posible que la inteligencia artificial sustituya a un psicólogo humano?

2026 01 960277079.png
Los sistemas de inteligencia artificial (IA) pueden proporcionar consejos razonables y representar una opción atractiva frente a la terapia presencial, que en ocasiones resulta costosa o incómoda.

Fuente: Agencia EFE/agencia_efe@listindiario.com

Los sistemas de inteligencia artificial (IA) pueden proporcionar consejos razonables y representar una opción atractiva frente a la terapia presencial, que en ocasiones resulta costosa o incómoda. Sin embargo, los expertos advierten que estos sistemas pueden fallar y que la conexión humana y el acompañamiento son insustituibles.

Los ‘chatbots’, programas o aplicaciones informáticas que interactúan con las personas respondiendo a sus preguntas mediante voz o texto como si fueran humanos, constituyen uno de los usos más difundidos de la IA y están ganando terreno en el campo del asesoramiento psicológico.

¿Podría un ‘chatbot’ basado en IA sustituir a un terapeuta humano como un psicólogo o psiquiatra? Aunque estos sistemas presentan ventajas, también tienen limitaciones, según los investigadores de la Universidad de Nueva Gales del Sur (UNSW, por sus siglas en inglés) en Sydney, Australia.

“La utilización de la IA como herramienta psicoterapéutica se remonta a los años 60, cuando el programa ELIZA ofrecía respuestas predefinidas a usuarios que expresaban sus estados emocionales”, comenta Jill Newby, psicóloga clínica y profesora de Psicología en la UNSW.

Programas conversacionales que actúan como psicólogos.

Pero la IA ha evolucionado considerablemente desde entonces; ahora existen aplicaciones para smartphones como Woebot, Wysa y Replika que sostienen diálogos complejos y bidireccionales con sus usuarios, proporcionándoles apoyo emocional, seguimiento del estado de ánimo y ejercicios terapéuticos como llevar un diario o tomar conciencia de sus procesos mentales, según explica Newby.

“Con la llegada de asistentes generativos de IA en línea como ChatGPT, CoPilot y Gemini, el asesoramiento psicológico ofrecido por sistemas basados en IA se asemeja notablemente a las estrategias esperables por parte de terapeutas presenciales”, señala la especialista.

“Cada interacción con un sistema de IA es única, muy contextualizada y personalizada; incluso puede recordar conversaciones anteriores, lo que permite a los usuarios explorar con mayor profundidad desafíos personales, problemas de salud mental y cuestiones prácticas”, detalla.

Psicoterapia presencial versus asesoramiento digital.

Ministerio de Obras Publicas

La profesora Newby destaca que la psicoterapia tradicional puede resultar prohibitivamente cara, difícil de acceder para quienes viven lejos del centro terapéutico o poco práctica para ciertos horarios; además, en ocasiones obliga a esperar semanas o meses para obtener atención profesional.

En cambio, una conversación con un sistema de IA puede ser inmediata, económica o gratuita y conveniente en ciertos casos; no obstante, esto no implica que la IA pueda reemplazar a los psicoterapeutas humanos ni que sus recomendaciones sustituyan el consejo de un profesional cualificado, aclara Newby.

La experta respalda el uso de recursos en línea para tratar la depresión; participó en un portal de terapia digital y actualmente investiga diversas herramientas basadas en IA para evaluar su aplicación en tratamientos personalizados contra la depresión y cómo los psicólogos pueden aprovecharlas para optimizar su labor.

Según esta investigadora, el asesoramiento brindado por los ‘chatbots’ suele fundamentarse en la terapia cognitivo conductual (TCC), un método que proporciona herramientas para manejar pensamientos, emociones y comportamientos.

“Una limitación del tratamiento con IA es que no todas las personas se benefician de la TCC; sin embargo, existe un gran número de individuos a quienes esta terapia les resulta muy útil y para quienes su versión basada en IA puede ser beneficiosa”, indica Newby.

Advierte que los sistemas conversacionales con IA no siempre ofrecen recomendaciones prudentes ni seguras; recuerda el caso de un hombre belga que se suicidó en 2023 tras mantener prolongadas conversaciones con un ‘chatbot’ llamado Eliza (sin relación con el programa original), cuyas respuestas podrían haber reforzado su ideación suicida.

El riesgo de recibir consejos erróneos o incluso peligrosos aumenta porque estos sistemas pueden ser manipulados para proporcionar orientaciones sobre conductas poco éticas al pedirles considerar escenarios hipotéticos, señala la profesora de la UNSW.

La IA como recurso para la salud mental.

Al emplear estas tecnologías es fundamental tener presente que la IA no es perfecta ni infalible; además, no puede reemplazar el diagnóstico ni la evaluación realizada por un profesional especializado en salud mental, advierte Newby.

Recomienda contemplar cómo las herramientas basadas en IA manejarán nuestros datos antes de proporcionar información médica privada; asimismo aconseja mantener una actitud crítica durante las interacciones y no aceptar toda recomendación sin cuestionarla.

“Si hablar con un sistema de IA te hace sentir peor, busca ayuda profesional”, enfatiza esta psicóloga.

Por otro lado, Newby considera que la conexión humana y el acompañamiento brindado por una persona no pueden ser sustituidos por inteligencia artificial.

Sostiene que el vínculo emocional es crucial para muchas personas; los profesionales capacitados pueden establecerlo generando empatía genuina.

Además, un terapeuta “de carne y hueso” tiene la capacidad de guiar al paciente mediante preguntas dirigidas a descubrir el origen profundo de sus dificultades, en lugar de aplicar simplemente una lista predeterminada de estrategias como suelen hacer los modelos basados en IA”, afirma.

Con base en la evidencia disponible, Jill Newby recomienda iniciar con terapia presencial o programas en línea respaldados clínicamente —como la TCC digital— dado que aún existe poca investigación sobre los beneficios reales de los ‘chatbots’ para tratar malestar psicológico o angustia; es un campo emergente dentro de la salud mental.

Para angustias leves o moderadas tanto los ‘chatbots’ como la terapia tradicional pueden ser útiles; sin embargo, si el malestar es intenso, perdura semanas o meses o hay pensamientos suicidas, esta psicóloga australiana recomienda enfáticamente acudir a terapia presencial.

Asimismo, “los ‘chatbots’ pueden ser una alternativa válida cuando no se puede acceder a terapia presencial (por estar en lista de espera o falta de recursos); también sirven como complemento junto con dicha terapia o como preparación previa a sesiones presenciales”, añade Newby.

Para ella es preferible elegir ‘chatbots’ diseñados específicamente para salud mental —que cuentan con protecciones adecuadas ante casos graves o pensamientos suicidas— como Wysa y Woebot; en lugar de plataformas generales tipo ChatGPT u otras similares que no están creadas para ofrecer tratamiento ni apoyo psicológico directo.

“Si no sabe qué camino seguir primero consulte al médico general para evaluación y orientación adecuada; ya que su malestar podría deberse a causas subyacentes distintas que requieren diagnóstico y tratamiento”, concluye Jill Newby.

Este contenido fue hecho con la asistencia de una inteligencia artificial y contó con la revisión del editor/periodista.

Sobre el Autor

TRA Noticias

TRA Noticias

info@teleradioamerica.com
Calle Leonor Feltz #33 Esquina Dolores Rodríguez Objio
809-539-8080

Agregar Comentario

Clic para comentar

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

TRA Digital

GRATIS
VER