En España, el uso de la inteligencia artificial (IA) para evaluar el riesgo en casos de violencia doméstica ha causado mucha controversia. El sistema, llamado VioGén, se implementa a través de un cuestionario de 35 preguntas que la policía utiliza para evaluar el nivel de riesgo de la víctima. La tecnología está destinada a ayudar a determinar si una persona necesita protección adicional después de denunciar un incidente violento. Sin embargo, la realidad es que los resultados obtenidos son a menudo inquietantes.
Un caso especialmente trágico es el de Lobna Hemid, que tras ser agredida por su marido acudió a la comisaría para presentar una denuncia. eventos. problema. A pesar de la gravedad de la situación, la herramienta de evaluación identificó el riesgo como “bajo”. Poco después, Hemid fue asesinado por un atacante. Este caso, entre otros, ha planteado dudas sobre la eficacia de confiar en algoritmos para tomar decisiones importantes en situaciones tan delicadas.
La cuestión aquí no es simplemente la IA, sino cómo se utiliza y en qué contextos . Algoritmos como VioGén pueden brindar asesoramiento basado en datos, pero no pueden reemplazar la intuición humana y la empatía necesarias para comprender la complejidad de los casos de violencia doméstica. En muchos casos, los agentes de policía no están adecuadamente capacitados para interpretar con precisión los datos proporcionados por el sistema o tomar decisiones que vayan más allá de las respuestas binarias de un cuestionario.
Además, implementar tecnologías como VioGén parece ser una forma de delegar responsabilidades importantes sin abordar los problemas subyacentes en la forma en que se manejan estos archivos. Existe una diferencia notable entre el uso de la tecnología y la necesidad de un enfoque más humano y comprensivo. La falta de intervención humana en estos procesos puede tener graves consecuencias, como se ve en algunos casos.
En el nuevo WWWhat, exploramos cómo la tecnología puede ser a la vez una herramienta poderosa y un arma de dos caras. . Este tema se hace eco de otros artículos que analizan los límites y las responsabilidades éticas del uso de la IA en contextos sensibles. La tecnología debe ser una herramienta para mejorar la vida de las personas, no un sustituto insensible del cuidado y el juicio humanos.
En mi opinión, es importante que los sistemas de evaluación de riesgos incorporen más componentes humanos. Los trabajadores sociales, psicólogos y otros profesionales con experiencia en violencia de género deben participar en el proceso de evaluación y apoyo a las víctimas. Este enfoque integral no solo mejora la precisión de las evaluaciones de riesgos sino que también proporciona un sistema de apoyo más sólido para las víctimas.
Entonces, ¿qué papel debería desempeñar la tecnología en la protección de las víctimas de violencia doméstica? En lugar de depender únicamente de un algoritmo, es esencial combinar estas herramientas con la experiencia y el juicio humanos. Esto no sólo genera confianza en el sistema, sino que también garantiza que las decisiones importantes se tomen de manera inteligente y concienzuda.