Este contenido fue hecho con la asistencia de una inteligencia artificial y contó con la revisión del editor/periodista.
La Fiscalía ha comunicado que implementará recursos de Inteligencia Artificial (IA) para manejar fiscalías y examinar esquemas criminales. En un escenario ideal, esto sería un motivo para aplaudir la modernización del sistema, pero la realidad dominicana sugiere otra óptica y genera recelo sobre esta buena intención.
La efectividad de la IA no reside en el lustre de su promesa, sino en la firmeza del marco donde se aplica. Hoy, nuestra estructura judicial padece de fugas informativas, manejos poco claros, una mentalidad punitiva que favorece la vía rápida y promueve un discurso llamativo con tintes publicitarios por encima del “debido proceso”.
Es entendible la inclinación a sumarse a la tendencia tecnológica. La IA ofrece orden ante el caos, celeridad ante lo tedioso, y capacidad de identificar patrones que el ojo humano no percibe. Con todo, el riesgo de convertirla en una solución mágica es elevado en un entorno que aún no ha corregido sus fallas fundamentales.
La IA predictiva se nutre del historial: detenciones, quejas, declaraciones, expedientes. Si ese historial es incompleto, mal digitalizado o, peor aún, prejuicioso contra ciertos grupos, el sistema no imparte justicia; exhibe un reflejo que magnifica la desigualdad. Si introducimos información errónea, eso mismo recibiremos. Y cuando esa información defectuosa se empaqueta bajo el manto de lo “científico”, el impacto es doble.
Visualicemos cómo opera este ciclo. Un programa de IA analiza datos pasados y determina que ciertas áreas son “de alto riesgo”. La policía, guiada por ese resultado, incrementa su presencia en ellas. Al vigilar más, detecta más incidentes, efectúa más aprehensiones y genera más informes.
Esos nuevos registros alimentan al sistema, que “aprende” que en esas mismas zonas hay más actividad delictiva. El algoritmo valida lo que él mismo ayudó a generar. Así se crea una profecía autocumplida: la supervisión se convierte en prueba de culpabilidad, y la parcialidad se disfraza de exactitud técnica.
La predicción se cumple no por evidencia de realidad, sino por la intensidad de la vigilancia. En la comparecencia, el sesgo se viste de imparcialidad: el fiscal confía en el reporte, el juez otorga crédito a la pantalla, el abogado se defiende a ciegas ante una lógica algorítmica que nadie logra explicar nítidamente. En este contexto, enfrentamos un sesgo de automatización. Es, simplemente, ceder el juicio humano ante un oráculo oscuro.
No se trata de condenar la herramienta, sino de recordar que toda tecnología posee implicaciones políticas basadas en sus condiciones de uso. En un país donde la “mano dura” es a menudo vista como una solución vistosa, la IA podría volverse un medio para el extremismo penal con apariencia de progreso, desviando la balanza hacia lo arbitrario en nombre de la eficiencia.
Haciendo viable la IA en la Fiscalía
¿Existe una vía sensata para este proyecto fiscal? Sí, pero requiere abandonar la fascinación por la solución fácil. Primero, el entramado debe capacitar a fondo a fiscales, jueces y defensores en ética de datos, prejuicios algorítmicos y nociones básicas de estadística. Sin este conocimiento fundamental, el resto son distracciones.
Segundo, es menester legislar y supervisar antes de adquirir, estableciendo responsabilidades por fallos, límites de aplicación, métodos de fiscalización externa, y procesos de explicación y rectificación. Tercero, iniciar un plan nacional para elevar la calidad de los datos penales y judiciales, con estándares, validaciones y seguimiento público.
Cuarto, comenzar por áreas de bajo riesgo y alto beneficio, como la transcripción de audiencias, la categorización de expedientes, la búsqueda inteligente, y la gestión documental. Esto ahorra tiempo, deja registros y permite aprender. Y solo cuando la base sea sólida, experimentar —de manera supervisada y transparente— con herramientas de análisis predictivo que demuestren ventajas tangibles sin comprometer derechos.
La IA no es ni una bendición ni una maldición: es un amplificador. Potencia lo que ya somos. Si somos herméticos, acelerará la hermetición; si somos parciales, el prejuicio crecerá; si somos cautelosos, puede ser un bisturí. Los expertos en leyes deberían exigir ya a la Fiscalía transparencia técnica, protocolos de justificación, derecho a cuestionar la lógica del algoritmo, normativas y parámetros éticos claros antes de embarcarse en una iniciativa digital no evaluada.
Es innegable que la “evidencia algorítmica” será un nuevo componente ineludible en la justicia. Será potente, convincente y, por ende, riesgosa si no sabemos cuestionarla. A la sociedad civil y a los medios les corresponde mirar más allá del anuncio resplandeciente. No basta con celebrar la digitalización como si fuera sinónimo de justicia. Es necesario preguntar por los datos, las auditorías, los sesgos, los canales de apelación, los acuerdos y los resguardos éticos.
La rectitud no se logra con trucos de software. Se construye con salvaguardas, metodología y transparencia. Si la IA llega para aportar exactitud, es bienvenida; si se integra para disfrazar viejos defectos con un lenguaje nuevo, es mejor detenerse. No requerimos una herramienta más contundente; necesitamos aprender a trabajar con precisión. Y ese aprendizaje inicia por el orden correcto de los pasos.














Agregar Comentario