Tecnologia

Presidenta Mace: la tecnología Deepfake puede utilizarse como arma de daño

caruri 787.png
caruri 787.png
WASHINGTON -- Nancy Mace, RS.C., Presidenta del Subcomité de Ciberseguridad, Tecnología de la Información e Innovación Gubernamental, ha protagonizado hoy una audiencia del subcomité titulada "A.

WASHINGTON — Nancy Mace, RS.C., Presidenta del Subcomité de Ciberseguridad, Tecnología de la Información e Innovación Gubernamental, ha protagonizado hoy una audiencia del subcomité titulada “Avances en la tecnología Deepfake”. Ha pronunciado un discurso. La presidenta Mace habló tanto de los beneficios como de los riesgos que plantea el poder de la inteligencia artificial y advirtió de que las imágenes y vídeos falsos realistas generados por la IA podrían crear amenazas y causar daños a la seguridad nacional.

A continuación reproducimos el discurso de apertura de la Subpresidenta Mace, preparado para su presentación.

Buenos días. Bienvenidos a esta audiencia de la Subcomisión de Ciberseguridad, Tecnologías de la Información e Innovación Gubernamental.

El poder innovador de la inteligencia artificial es un arma de doble filo.

Esto es particularmente evidente en la capacidad de la IA para generar imágenes, audio y vídeo realistas.

Utilizando los algoritmos de IA más avanzados, pueden crearse imágenes sintéticas casi indistinguibles de rostros, voces y acontecimientos reales. Estas creaciones se conocen como deep fakes.

Se pueden utilizar para diversas aplicaciones productivas. Se han utilizado para mejorar videojuegos y otras formas de entretenimiento. También se ha utilizado para avanzar en la investigación médica.

Sin embargo, la tecnología deepfake también puede utilizarse como arma de daño.

La tecnología deepfake puede utilizarse para hacer creer que las personas dicen o hacen cosas que en realidad no dicen ni hacen. Puede utilizarse para cometer una serie de delitos, como el fraude financiero y el robo de propiedad intelectual. También puede ser utilizada por activistas antiamericanos para crear amenazas a la seguridad nacional.

Hace unas semanas, un compañero de clase de un instituto de Nueva Jersey hizo circular imágenes pornográficas de alumnas generadas por IA.

Una empresa que investiga los deepfakes descubrió que el 90% de las imágenes falsas son pornográficas.

El mes pasado, los fiscales generales de 54 estados y territorios escribieron a los líderes del Congreso pidiéndoles que abordaran cómo se está utilizando la IA para explotar a los niños, en particular mediante la generación de material de abuso sexual infantil (CSAM).

La IA puede combinar datos de fotografías de niños víctimas y no víctimas de abusos para animar nuevas imágenes sexuales realistas que no existen pero que pueden parecerse a niños reales, escribieron.

Crear este tipo de imágenes nunca ha sido tan fácil, según la carta, ya que cualquiera puede descargar herramientas de inteligencia artificial en su ordenador y crear imágenes simplemente escribiendo una breve descripción de lo que el usuario quiere ver.

Los vídeos y fotos falsos que circulan por las redes sociales también dificultan la distinción de falsedades en conflictos de todo el mundo. En las redes sociales se difundieron rápidamente vídeos que pretendían haber sido tomados sobre el terreno en Israel, Gaza y Ucrania, pero se descubrió que no eran auténticos; algunos vídeos creados por IA mostraban al presidente ucraniano instando a sus tropas a deponer las armas, mientras que otros mostraban al presidente ucraniano instando a sus tropas a deponer las armas.

No me interesa prohibir imágenes o vídeos sintéticos que ofendan o hagan sentir incómodas a algunas personas.

Sin embargo, si no podemos distinguir entre verdad y ficción, no podemos garantizar que se cumplan las leyes ni que se proteja la seguridad nacional.

También existe el peligro más insidioso de que la masa de suplantaciones y ficciones que vemos en las redes sociales pueda hacer que quienes nos enfrentamos a la realidad la desconozcamos por completo.

Los actores malintencionados se ven recompensados si se piensa que lo están fingiendo todo. Es lo que se conoce como el “dividendo del mentiroso”. Un caso típico fue el del portátil de Hunter Biden, que muchos medios de comunicación y otros medios atribuyeron a propaganda rusa.

Sin embargo, el riesgo de los deepfakes puede mitigarse. Conozcamos hoy una iniciativa de este tipo. Esta iniciativa corre a cargo de una asociación de empresas tecnológicas interesadas en mantener el flujo de contenidos creíbles. Han creado normas voluntarias que permiten a los creadores incrustar datos de procedencia de contenidos en imágenes y vídeos. Esto permitirá a otros saber si el contenido ha sido generado por ordenador o manipulado de algún modo.

Los testigos de hoy podrán debatir esta norma, junto con otras ideas para hacer frente a los daños causados por los deepfakes.

Con esto, cedo la palabra al miembro más veterano de este subcomité, el Comisario Connolly.

TRA Digital

GRATIS
VER