Tecnologia

Los tribunales de la Ciudad de Buenos Aires utilizan un sistema de reconocimiento facial que ha sido puesto en tela de juicio por “apropiarse” de fotos publicadas en internet

8874406514.png
La medida generó críticas de especialistas en tecnología y de organizaciones de la sociedad civil, que alertan sobre la vulnerabilidad de datos personales altamente sensibles.

Este contenido fue hecho con la asistencia de una inteligencia artificial y contó con la revisión del editor/periodista.

**Ucrania empleará el reconocimiento facial de una controvertida empresa sancionada en la UE para identificar infiltrados rusos**

Cualquier imagen de una persona publicada en redes sociales podría ser utilizada por un sistema de reconocimiento facial privado que el Ministerio Público Fiscal de la Ciudad de Buenos Aires adquirió recientemente. La medida generó críticas de especialistas en tecnología y de organizaciones de la sociedad civil, que alertan sobre la vulnerabilidad de datos personales altamente sensibles.

El software bajo escrutinio pertenece a Clearview AI, compañía que ha protagonizado varios escándalos en Norteamérica y Europa, incluso recibiendo multas y sanciones por parte de autoridades gubernamentales. Tras una licitación por 27 588 USD durante 12 meses, el programa ya está en funcionamiento en el Cuerpo de Investigaciones Judiciales (CIJ) del Poder Judicial porteño, dirigido por Juan Bautista Mahiques, según informó elDiarioAR a partir del análisis de documentos públicos y entrevistas con fuentes oficiales y ONG.

El reconocimiento facial es una herramienta que suscita inquietudes y recelos cuando se emplea en el ámbito judicial y de seguridad para prevenir delitos o perseguirlos posteriormente. Los críticos señalan que dichos programas —presuntamente diseñados para asistir al Estado en la coteja de imágenes de sospechosos o imputados— se sustentan en bases de datos que vulneran la privacidad de los ciudadanos, una situación que, según los expertos, se debe a la ausencia de controles gubernamentales.

Clearview AI fue creada en 2017 por Hoan Ton‑That y Richard Schwartz y, según su propia página, dispone de más de 60 mil millones de imágenes identificables facialmente. La empresa llegó a Buenos Aires meses atrás mediante una licitación abierta el 11 de mayo del año pasado, con la condición de que el distribuidor oficial y exclusivo del software sea VEC S.R.L., firma que ya cuenta con una decena de contratos con distintas áreas del Estado. En agosto pasado el municipio de Berazategui también adquirió el programa. Los analistas sospechan que el sistema ingresó al mercado local precisamente porque ya está sancionado en Europa y América del Norte.

Clearview AI ha sido objeto de investigaciones en países como Canadá, Estados Unidos, Italia y los Países Bajos. Por ejemplo, la Autoridad de Protección de Datos de los Países Bajos (DPA) impuso en septiembre de 2024 una multa de 30,5 millones de euros (alrededor de 33,7  millones de dólares) a la compañía por haber creado una base de datos “ilegal” con más de 30 mil millones de fotografías faciales sin autorización, infringiendo la normativa de la Junta Europea de Protección de Datos.

Esa misma entidad europea, años antes, emitió un informe advirtiendo que el uso de Clearview AI por parte de la policía continental (Europol) “presenta riesgos elevados desde la perspectiva del cumplimiento normativo”. En 2021 recomendó “no utilizar ni promover la herramienta”, subrayando la necesidad de un enfoque mucho más riguroso al seleccionar y evaluar tecnologías externas que puedan tratar datos personales sensibles.

En la licitación del Ministerio Público Fiscal porteño se especifica que “CLEARVIEW PRO es una herramienta de reconocimiento facial que combina inteligencia artificial con un motor de búsqueda potente en fuentes abiertas. Su tecnología permite comparar una fotografía con una base de datos que contiene millones de imágenes procedentes de páginas web, fichas policiales, redes sociales públicas y otras fuentes abiertas”. Además se indica: “…la solución brinda recursos simplificados que agrupan imágenes vinculadas entre sí, creando perfiles detallados que pueden descargarse para investigaciones futuras o tareas asociadas. En este sentido, su capacidad de archivo complementa al sistema integrado de búsquedas referenciadas”.

elDiarioAR consultó al Ministerio Público Fiscal y obtuvo una respuesta oficial que señala que “se ha contratado por un período de 12 meses una de las herramientas disponibles en el mercado para agilizar el trabajo humano al rastrear en fuentes abiertas”. Voceros del organismo dirigido por Mahiques añadieron que “su uso no es con fines preventivos ni de inteligencia, sino que solo puede emplearse dentro del marco de una investigación penal bajo la estricta autorización de un Fiscal. La herramienta sirve para acortar pasos al buscar imágenes públicas en Internet, es decir, imágenes ya compartidas previamente por otro usuario y que están disponibles en línea”.

La magnitud de la base de datos y el uso “cerrado” que el software hace de esas imágenes son algunas de las preocupaciones de los especialistas. “La empresa se apropia de las imágenes que están en Internet como si fueran una base de datos propia. Se dice que son imágenes ya compartidas, pero nadie sube fotos a sus redes para que se utilicen en una base destinada a comparar con posibles delincuentes”, advirtió Manuel Tufró, director del área de Justicia y Seguridad del CELS. “El problema fundamental es la adopción de tecnología sin ningún tipo de salvaguarda, sumado a que ya existen antecedentes públicos sobre las complicaciones de este sistema. Si el Ministerio Público decide contratarla de todos modos, debería explicar el porqué. Son tecnologías extremadamente invasivas que afectan derechos”.

“El principio general para el tratamiento de datos personales es el consentimiento del titular. El problema es que Clearview procesa datos de todo el mundo”, señaló Tomás Pomar, abogado y referencia del Observatorio de Derecho Informático Argentino (ODIA).

“El software cuenta con una estructura llamada scraper, un robot digital que continuamente realiza una tarea sencilla: recorrer redes sociales y la web en general reconociendo rasgos antropométricos para buscar información de contexto. No es que visite Facebook o Instagram, sino que ya incorpora esas bases de datos en su sistema”, explicó Pomar. Esa base es la que se utiliza para comparar la imagen de un sospechoso de delito que no puede identificarse de forma fiable.

“El inconveniente es que el programa es privativo, el Estado no conoce su funcionamiento interno. Además, la investigación podría quedar a merced del algoritmo y señalar a una persona equivocada”, subrayó Pomar. “Se incrementa la posibilidad de falsos positivos. Clearview es una captura masiva de todas las imágenes en el mundo digital: hay un grave problema de privacidad”, añadió Tufró.

El CELS y el ODIA mantienen abierta una causa contra el Sistema de Reconocimiento Facial de Prófugos (SRFP) implementado por el Gobierno porteño. La Cámara de Apelaciones de la Ciudad declaró la inconstitucionalidad del sistema por haberse gestionado fuera de la normativa que lo regula y sin mecanismos de control.

El caso Clearview también alertó a la red internacional conocida como INCLO (International Network of Civil Liberties Organizations), que redactó una serie de principios para regular, limitar o incluso prohibir los sistemas de reconocimiento facial. Entre esos principios se destaca la obligatoriedad de una legislación que regule el uso de estos programas, la necesidad de evaluaciones de impacto tecnológico en los procesos de adquisición y la exigencia de supervisión externa. Según los expertos, ninguno de esos tres requisitos se habría cumplido en la compra de Clearview por parte del Ministerio Público de la Ciudad.

TRA Digital

GRATIS
VER