Este contenido fue hecho con la asistencia de una inteligencia artificial y contó con la revisión del editor/periodista.
La verificación de identidad es crucial para asegurarnos de consumir contenido genuino.
En plena era digital y en este Día Mundial del Internet, identificar quién está al otro lado de la pantalla es más complicado que nunca. Con el avance de la inteligencia artificial, los bots y los deepfakes, es cada vez más común encontrar contenido, perfiles o interacciones que simulan ser humanos, pero que en realidad no lo son.
En relación con esta problemática, está el reciente caso de las imágenes hiperrealistas de Katy Perry en la MET gala, generadas por inteligencia artificial (IA) y replicadas por millones antes de confirmarse que nunca asistió. Otro ejemplo son los bots que simulan conversaciones en redes sociales o se infiltran en plataformas para comprar boletos para conciertos u otros espectáculos de forma masiva.
Los bots son programas automatizados que pueden ejecutar tareas repetitivas imitando el comportamiento humano, como responder mensajes, comentar en redes sociales o recopilar información. Si bien muchos son útiles, por ejemplo, los que ofrecen soporte técnico, otros se usan para fines menos éticos, como difundir noticias falsas o acaparar boletos y reservaciones en línea.
De acuerdo con un informe de Imperva en 2024, se estima que cerca del 50% del tráfico en internet proviene de bots: algunos útiles, otros maliciosos.
Paralelamente, los avances en IA generativa han difuminado las fronteras entre lo real y lo creado.
Los deepfakes son contenidos generados con inteligencia artificial que imitan rostros, voces y gestos humanos con una precisión tal que pueden engañar a simple vista. Se utilizan para crear imágenes o videos falsos de personas que parecen completamente reales.
“Se ha intentado combatir el uso malicioso de bots mediante mecanismos como CAPTCHAs o verificaciones con documentos de identidad. Sin embargo, estas medidas a menudo entorpecen la experiencia del usuario y pueden ser vulneradas por sistemas avanzados de inteligencia artificial”, explica la empresa World, que trabaja en el mundo de la autenticidad de los usuarios.
Además, señala que implican una gran responsabilidad en cuanto al manejo seguro de datos sensibles. En medio de este panorama, surge la pregunta de cómo es posible verificar si se interactúa con una persona real o con contenido hecho por un humano.
Según Miguel Rocha, gerente general para México y Centroamérica en Tools for Humanity (que opera World), que trabaja con la herramienta “Orb” para diferenciar entre un humano y un bot, se genera un código anónimo encriptado único a partir de una imagen del rostro y los ojos de una persona, sin guardar las imágenes ni datos biométricos.
Orb es conocida en República Dominicana. Meses atrás, la compañía, en ese entonces bajo el nombre de WorldCoin, generó controversia en varios países, como en el caso de República Dominicana, por la práctica de escanear el iris a cambio de criptomonedas.
A raíz de esto, ProConsumidor ordenó el cese de operaciones de la empresa y la Junta Central Electoral prohibió el uso de datos obtenidos de las personas, aunque la empresa aseguró que no almacena datos de los usuarios.