Tecnologia

En Granada están diseñando un sistema para saber si una grabación de voz

8248737317.png
8248737317.png
Grabaciones con fines maliciosos, como suplantación de identidad mediante estafas telefónicas o creación de noticias falsas.

GRANADA, 29 DE JULIO (EUROPA PRESS) –

Periodistas investigadores de la Universidad de Granada (UGR), del Departamento de Lenguajes y Sistemas Informáticos, han diseñado un sistema pionero en el mundo que permite distinguir si las voces de audio son reales o generadas por algoritmos de inteligencia artificial (IA), un método extremadamente útil para luchar contra la desinformación y las Fake News. ‘.

Este trabajo, realizado en el marco de la Presidencia de RTVE-UGR, ha sido presentado este lunes durante la rueda de prensa celebrada en el Hospital Real de Granada, en la que participan los investigadores Zoraida Callejas, David de la UGR Griol y Daniel Calderón, expertos en sistemas de conversación y tecnologías de procesamiento del habla y el lenguaje, y su director Pedro Mercado.

Actual Actualmente, los avances en el uso de redes neuronales profundas para la síntesis de sonido permiten obtener resultados cada vez más realistas. voz sintética (es decir, generada por IA).

Artículo Esto tiene grandes ventajas porque puede proporcionar a los sistemas automatizados voces más comprensibles (por ejemplo, lectores de texto, asistentes virtuales). , robots), así como controlar sus características, haciéndolas más expresivas y diversas (por ejemplo, con aplicaciones en la producción de contenidos multimedia).

Sin embargo, la síntesis de voz también se puede utilizar para crear o manipular audio. grabaciones con fines maliciosos, como suplantación de identidad mediante estafas telefónicas o creación de noticias falsas. Hasta ahora, el audio ha sido un problema menor en las redacciones en comparación con otros tipos de falsificaciones, como fotos o vídeos.

Sin embargo, en los últimos dos años, se necesitan herramientas que ayuden detectar audios falsos y puede servir a los periodistas como una nueva fuente de fact-checking.

La investigación liderada por los profesores Zoraida Callejas y David Griol ha presentado esta mañana el trabajo llevado a cabo en el marco de RTVE – Presidente de la UGR, en en el que participan los dos investigadores junto con RTVE y la empresa Monoceros Labs. En este caso, las líneas de investigación antes mencionadas se aplicaron a la verificación de audio para combatir la desinformación.

«Creamos una herramienta que integra soluciones propias y de terceros para distinguir si los sonidos son reales o generados mediante algoritmos de inteligencia artificial”, explican investigadores de la UGR. Una de las novedades que introduce esta herramienta es que integra no sólo modelos generales sino también modelos específicos creados en la UGR para las voces de personas que frecuentemente son blanco de información falsa. «

No en vano, durante la rueda de prensa, los científicos pusieron un ejemplo de una voz clonada mediante técnicas de IA para convertir y clonar la voz del Monoceros del Rey Felipe VI, del presidente del Gobierno, Pedro Sánchez o la vicepresidenta Yolanda Díaz.
«Nuestro objetivo no es crear artificialmente estas voces sintéticas sino entrenar su IA. Utilizo estas voces que creamos para que el sistema pueda determinar si una voz es falsa o no con alta precisión. «, destacan los investigadores de la UGR.

Actualmente se trabaja para ir más allá de la verificación y desarrollar herramientas para periodistas basadas en IA conversacional, garantizando la interactividad, la accesibilidad y la personalización de los contenidos informativos.

TRA Digital

GRATIS
VER