Fuente: A. Fajardo/a_fajardo@informacion.es
Uso de inteligencia artificial para identificar y prevenir la violencia de género en jóvenes dentro del ámbito educativo
La violencia de género entre los jóvenes preocupa cada vez más en las escuelas, ante las revelaciones de alumnas sobre relaciones tóxicas con sus parejas y la creciente normalización del consumo precoz de pornografía. Para mejorar la detección temprana de riesgos que podrían derivar en problemas graves en la adultez, investigadores de la Universidad de Alicante (UA) participan en un proyecto financiado por la Unión Europea que incorpora chatbots —programas informáticos que simulan conversaciones— y aplicaciones dirigidas a estudiantes de secundaria y universitarios. Esta iniciativa busca influir tanto en políticas como en prácticas a nivel nacional y europeo.
“La inteligencia artificial identifica patrones de conducta, dudas o señales de alerta expresadas por el usuario, ofreciendo respuestas personalizadas que ayudan a jóvenes y educadores a reconocer el acoso o la violencia en parejas. Su objetivo es crear espacios más seguros combinando educación, sensibilización y tecnología”, comenta Mari Carmen Martínez Monteagudo, Doctora en Psicología y Profesora Titular del Departamento de Psicología Evolutiva y Didáctica de la UA. El proyecto Shield (European AI-Powered Gender Based Violence Reduction Initiative), en el que participa, propone implementar estos sistemas detectores en tutorías o mediante los servicios de orientación de los centros educativos.
La IA puede captar conductas como control en redes sociales, aislamiento o estados emocionales negativos
“Los chatbots están diseñados como espacios interactivos, accesibles y confidenciales donde los jóvenes pueden expresar sus sentimientos y experiencias relacionadas con sus relaciones personales o preocupaciones, identificar señales de riesgo sin revelar su identidad y acceder a información y recursos sobre cómo solicitar ayuda si sufren violencia de género”, añade la investigadora.
El fundamento del proyecto es que la tecnología no sustituye el trabajo profesional, pero estos chatbots actúan como una primera línea para acompañar y detectar problemas temprano, en un formato atractivo para adolescentes acostumbrados a comunicarse digitalmente.
Indicadores de riesgo
Según Martínez Monteagudo, el uso de IA permite mantener conversaciones naturales y adaptadas, con diálogos guiados capaces de detectar indicios de conductas problemáticas como control excesivo en redes sociales, alejamiento de amistades o manifestaciones intensas de miedo o tristeza. “El sistema está programado para señalar estas señales e indicar pasos seguros hacia apoyo humano; por ejemplo, el chatbot identifica lenguaje relacionado con miedo, control, acoso o abuso”, explica.
La tecnología sirve para reconocer signos que alertan sobre maltrato en las relaciones
No obstante, el chatbot no es la única herramienta del proyecto dirigido por el doctor Ignasi Navarro, profesor del mismo departamento, junto con la catedrática Beatriz Delgado y el investigador Manuel Torrecillas. También han desarrollado un curso abierto (MOOC) sobre violencia de género dirigido a jóvenes y profesionales que trabajan con ellos, con el fin de sensibilizar y formar desde un enfoque preventivo.
El curso aborda progresivamente temas como la comprensión general de la violencia de género, acoso sexual, violencia en relaciones sentimentales y el papel de marcos normativos y plataformas educativas.
Se espera que los chatbots estén disponibles en institutos y universidades dentro de un año
Además, se dedica un módulo específico a la violencia basada en entornos digitales —incluyendo aquella facilitada por tecnologías e inteligencia artificial— y concluye con un apartado sobre apoyo, acción y vías para responder ante estas situaciones.
Actualmente se prevé que tanto este curso como el chatbot puedan implementarse aproximadamente en un año, tras completar fases de validación, pruebas y ajustes necesarios para asegurar que ambas herramientas sean seguras, eficaces y cumplan estándares éticos internacionales.
Enfoque en edades vulnerables
El chatbot está dirigido principalmente a jóvenes entre 16 y 24 años, grupo etario que utiliza intensamente plataformas digitales y presenta mayor riesgo ante diversas formas de violencia de género especialmente online.
“Aunque tiene una clara dimensión educativa, este proyecto no se concibe como una intervención escolar ni está orientado a niños; su foco son los jóvenes y profesionales que trabajan con ellos”, aclara Martínez Monteagudo.
De esta manera, señala la profesora de la UA, se apunta especialmente a adolescentes y jóvenes que suelen buscar información primero en entornos digitales antes de consultar a adultos o especialistas. “Por ello, un chatbot puede constituir un primer punto seguro de contacto siempre que tenga un alcance limitado, expectativas bien establecidas y una fuerte orientación hacia derivación profesional según recomiendan las guías internacionales”, concluye.
Este contenido fue hecho con la asistencia de una inteligencia artificial y contó con la revisión del editor/periodista.









Agregar Comentario