Este contenido fue hecho con la asistencia de una inteligencia artificial y contó con la revisión del editor/periodista.
La Fiscalía General ha comunicado que integrará tecnologías de Inteligencia Artificial (IA) para la administración de fiscalías y el escrutinio de patrones criminales. En un escenario ideal, esto sería motivo de celebración por la modernización del sistema, pero la situación dominicana impone una perspectiva distinta y genera cavilaciones sobre esta intención positiva.
La utilidad de la IA no reside en su promesa reluciente, sino en la fortaleza de la estructura donde se implementa. Actualmente, nuestro ámbito judicial exhibe fugas de información, prácticas cerradas, una mentalidad punitiva que favorece la solución rápida y desarrolla una narrativa impactante con tintes de mercadotecnia antes que apegarse al “debido proceso.”
Es comprensible el deseo de subirse a la ola tecnológica. La IA ofrece organización ante el desorden, agilidad frente a lo tedioso, y la capacidad de discernir tendencias que agotan la percepción humana. No obstante, el peligro de transformarla en un “artefacto mágico” es excesivo en un entorno que aún no ha subsanado sus fallas fundamentales.
La IA predictiva se nutre del historial: detenciones, denuncias, interrogatorios, legajos. Si ese pasado es incompleto, mal digitalizado o, peor aún, está sesgado contra ciertos perfiles, el algoritmo no imparte justicia; presenta un reflejo que magnifica la desigualdad. Si alimentamos la IA con información defectuosa, su resultado será igualmente imperfecto. Y cuando la deficiencia se viste de ciencia, el perjuicio se duplica.
Visualicemos cómo opera este circuito. Un sistema de Inteligencia Artificial examina los datos pasados y determina que ciertas áreas son “focos de riesgo”. La policía, siguiendo esa conclusión, refuerza su presencia en dichas zonas. Al incrementar la vigilancia, detecta más incidentes, efectúa más detenciones y genera más reportes.
Esos nuevos datos reingresan al sistema, que “aprende” que en esas mismas zonas hay mayor actividad delictiva. El algoritmo valida aquello que él mismo ayudó a generar. Así se forja una profecía autocumplida: la supervisión se vuelve prueba de culpabilidad, y la parcialidad se oculta tras la apariencia de exactitud técnica.
La predicción se materializa no por su exactitud intrínseca, sino por la intensidad de la vigilancia aplicada. En la sala de juicios, la inclinación se disfraza de neutralidad: el fiscal confía en el informe, el juez otorga peso a la pantalla, el abogado litigante opera en desventaja frente a una lógica algorítmica que pocos pueden explicar con claridad. En este marco, enfrentamos un sesgo algorítmico. Es, ni más ni menos, el abandono del juicio humano en favor de un oráculo inescrutable.
No se trata de condenar írritamente la herramienta, sino de recordar que toda tecnología está politizada por sus condiciones de uso. En un país donde frecuentemente se ensalza la “mano dura” como solución espectacular, la IA puede convertirse en un instrumento de autoritarismo penal con apariencia de vanguardia, inclinando la balanza hacia la arbitrariedad bajo el disfraz de eficacia.
Viabilidad de la IA en la Fiscalía
¿Existe una vía responsable para este proyecto de la Fiscalía General? Sí, pero requiere abandonar la idolatría de la solución rápida. Primero, el cuerpo debe formar exhaustivamente a fiscales, jueces y defensores en ética de datos, sesgos algorítmicos y nociones fundamentales de estadística. Sin este conocimiento básico, todo lo demás son meras exhibiciones.
En segundo lugar, es imperativo legislar y establecer gobernanza antes de adquirir la tecnología: definir responsabilidades por errores, límites de uso, sistemas de supervisión externa, procedimientos de justificación y compensación. En tercer lugar, iniciar un esfuerzo nacional para mejorar la calidad de los datos penales y judiciales, estableciendo parámetros, verificaciones y seguimiento público.
Cuarto, comenzar con aplicaciones de menor riesgo y mayor beneficio, como la transcripción de audiencias, la categorización de expedientes, la búsqueda especializada y la gestión documental. Eso ahorra tiempo, deja evidencia y permite el aprendizaje. Solo cuando los cimientos sean sólidos, se deben probar —de manera auditada y transparente— las herramientas de análisis predictivo que demuestren aportes tangibles sin comprometer los derechos fundamentales.
La IA no es ni benévola ni malévola: es un catalizador. Acelera aquello que somos. Si somos herméticos, acelerará la cerrazón; si somos parciales, multiplicará la desviación; si somos cautelosos, puede funcionar como un bisturí. Los profesionales del derecho deberían exigir desde ahora a la Fiscalía transparencia técnica, protocolos de explicación, derecho a cuestionar las decisiones algorítmicas, regulaciones y preceptos éticos definidos antes de embarcarse en una iniciativa digital sin una evaluación completa.
Es innegable que la “evidencia algorítmica” se convertirá en una nueva huella dactilar en el ámbito judicial. Será potente, convincente y, precisamente por ello, riesgosa si ignoramos cómo interrogarla. Toca a la sociedad civil y a los medios observar más allá del anuncio deslumbrante. No es suficiente aplaudir la digitalización como si fuera sinónimo de justicia. Hay que indagar sobre los datos, las inspecciones, los prejuicios, las vías de apelación, los convenios y los cortafuegos éticos.
La justicia no se alcanza con trucos de software. Se construye con salvaguardas, metodología y claridad. Si la IA se incorpora para añadir precisión, es bienvenida; si se instala para disfrazar viejas faltas con un léxico nuevo, es preferible detenerse. No requerimos un mazo más grande; necesitamos aprender a operar con un bisturí. Y ese aprendizaje comienza por establecer el orden correcto de las cosas.















Agregar Comentario