Este contenido fue hecho con la asistencia de una inteligencia artificial y contó con la revisión del editor/periodista.
La Fiscalía ha informado que integrará métodos de Inteligencia Artificial (IA) para la administración de procuradurías y el estudio de perfiles delictivos. En un escenario ideal, esto sería motivo para celebrar el avance del sistema, pero la situación real en el país genera otra perspectiva y permite que surjan cuestionamientos sobre esta buena intención.
La efectividad de la IA no radica en lo prometedor de su propuesta, sino en la solidez de la institución donde se implemente. Hoy, nuestro aparato judicial presenta fugas de información, prácticas poco transparentes, una mentalidad punitiva que favorece las soluciones rápidas y que construye narrativas llamativas con un toque de mercadeo, antes que enfocarse en “el proceso debido.”
Comprender la inclinación hacia la incorporación tecnológica es sencillo. La IA promete sistematización en el desorden, agilidad en lo complicado, y la capacidad de identificar patrones que el ojo humano no percibe por cansancio. No obstante, el riesgo de transformarla en una “herramienta mágica” es muy elevado en un ambiente que aún no ha corregido sus fallas fundamentales.
La IA predictiva se nutre de datos históricos: aprehensiones, denuncias, declaraciones, expedientes. Si ese historial está incompleto, mal digitalizado o, peor aún, muestra prejuicios contra ciertos grupos, el algoritmo no aporta equidad; más bien, presenta un reflejo que magnifica la desigualdad. Si introducimos información errónea a la IA, eso mismo obtendremos de vuelta. Y cuando lo defectuoso se presenta revestido de aspecto “científico”, el perjuicio se duplica.
Imaginemos cómo opera este ciclo. Un sistema de Inteligencia Artificial evalúa datos pasados y determina que ciertas áreas son “focos de riesgo”. La policía, siguiendo esa directriz, aumenta su presencia en dichos lugares. Al patrullar más, descubre más incidentes, realiza más detenciones y genera más informes.
Esos nuevos datos realimentan el sistema, que “aprende” que en esos mismos sectores hay mayor actividad delictiva. El algoritmo valida aquello que él mismo ayudó a generar. Así se forja una profecía autocumplida: la supervisión intensiva se transforma en evidencia de culpabilidad, y la parcialidad se disfraza de exactitud técnica.
La profecía se materializa no por una verdad intrínseca sino por el aumento de la vigilancia. En la sala de audiencias, el sesgo se viste de imparcialidad: el fiscal confía en el reporte, el juez otorga credibilidad a la pantalla, el defensor lucha a ciegas contra una lógica algorítmica que pocos pueden explicar coherentemente. En este marco, estamos ante un sesgo de automatización. Es, simplemente, la renuncia del juicio humano frente a un referente impenetrable.
No se trata de condenar la herramienta, sino de recordar que toda tecnología está influenciada por las condiciones de su aplicación. En una nación donde la “mano dura” a menudo se aplaude como solución efectiva, la IA podría volverse un vehículo para el populismo penal con apariencia moderna, inclinando la balanza hacia la arbitrariedad disfrazada de eficiencia.
**Implementando la IA en la Fiscalía**
¿Existe una manera responsable de abordar este proyecto de la Fiscalía? Sí, pero requiere abandonar la fascinación por el camino rápido. Primero, es esencial capacitar a fondo a fiscales, jueces y defensores en ética de los datos, los sesgos algorítmicos y los principios elementales de la estadística. Sin este conocimiento básico, todo lo demás son meros adornos.
En segundo lugar, es necesario establecer regulaciones y marcos de gobernanza antes de la adquisición, precisando responsabilidades por errores, estableciendo límites de uso, creando mecanismos de supervisión externa y definiendo protocolos de explicación y subsanación. Tercero, se debe iniciar un esfuerzo nacional para mejorar la calidad de los datos penales y judiciales, con estándares, validaciones y rastreo público.
Cuarto, empezar por aplicaciones de menor riesgo pero de alto impacto, como la transcripción de audiencias, la categorización de expedientes, la búsqueda inteligente y la gestión documental. Esto ahorra tiempo, deja un registro, y permite aprender. Y solamente cuando los cimientos sean sólidos, probar —de manera supervisada y transparente— herramientas de análisis predictivo que demuestren beneficios tangibles sin comprometer los derechos fundamentales.
La IA no es ni benefactora ni dañina; es un catalizador. Acelera lo que ya somos. Si somos herméticos, acelerará la cerrazón; si somos parciales, potenciará el prejuicio; si somos cautos, puede ser una herramienta precisa. Los expertos legales deben exigir desde ahora a la Fiscalía total transparencia técnica, protocolos claros de explicación, derecho a cuestionar las decisiones algorítmicas, normativas y criterios éticos definidos antes de aventurarse en un salto digital no meditado.
Es innegable que la “evidencia algorítmica” se convertirá en un nuevo pilar en la justicia. Será potente, convincente y, por ello, riesgosa si no sabemos cómo cuestionarla. Es responsabilidad de la sociedad civil y de los medios mirar más allá del anuncio espectacular. No basta con aplaudir la digitalización como si fuera idéntica a la justicia. Hay que indagar sobre los datos, las auditorías, las parcialidades, las vías de apelación, los acuerdos y los controles éticos.
La equidad no se logra con trucos de software. Se construye con garantías, metodología y transparencia. Si la IA llega para aportar exactitud, es bienvenida; si se instala para encubrir viejas faltas con terminología nueva, es mejor detenerse. No necesitamos un instrumento más contundente; necesitamos aprender a manejar un bisturí. Y ese aprendizaje empieza por ordenar correctamente los pasos.









