Este contenido fue hecho con la asistencia de una inteligencia artificial y contó con la revisión del editor/periodista.
CONDADO PALM BEACH, FLORIDA — A partir del 1 de octubre, Florida cuenta con una de las normativas más severas del país contra la pornografía deepfake no consensual, un fenómeno que se expande rápidamente en la red y que afecta mayormente a mujeres y menores.
El proyecto de ley 757 (HB 757), firmado por el gobernador Ron DeSantis el 27 de mayo, tipifica como delito grave la creación, difusión o incluso la mera posesión de imágenes sexualmente explícitas generadas mediante inteligencia artificial sin el aval de la persona retratada.
Además de las penas penales que pueden llegar hasta 15 años de cárcel en los casos más graves, la disposición otorga a las víctimas el derecho a entablar acciones legales contra los culpables, con indemnizaciones mínimas de $10,000 dólares por cada violación, más los costos judiciales.
La ley también obliga a los portales digitales y a las apps a implementar, antes del 31 de diciembre de 2025, mecanismos de reporte que aseguren la eliminación de este tipo de contenido en menos de 48 horas tras ser notificado.
Un caso que marcó un antes y un después
La aprobación de esta normativa tiene una cara visible: la de Elliston Berry, una adolescente que a los 14 años fue víctima de un deepfake elaborado por un compañero de clase en Texas.
Una fotografía sacada de su cuenta de Instagram fue manipulada con una herramienta de IA para despojarla digitalmente de su ropa. En cuestión de horas, las imágenes falsas se difundieron entre sus compañeros.
“Fue como si mi inocencia se desvaneciera píxel a píxel”, comentó Berry en entrevista con CBS12 News. “ Temía que esas imágenes arruinaran mi futuro, desde la universidad hasta mis oportunidades laborales”.
Su madre, Anna McAdams, recordó la impotencia que sintieron al acudir a la escuela y a las autoridades:
“Nadie sabía qué hacer. La escuela no tomó medidas y la policía local no contaba con recursos para enfrentar este tipo de delito digital”.
Frente a la falta de respuesta, ambas llevaron la historia a Washington, donde se reunieron con legisladores federales y con la entonces primera dama, Melania Trump, quien utilizó el caso para sensibilizar sobre la necesidad de una legislación nacional.
Su testimonio influyó en la creación de la Ley Federal Take It Down, aprobada en mayo de 2025, que obliga a las plataformas digitales en todo EE. UU. a retirar imágenes íntimas —reales o manipuladas con IA— en un plazo máximo de 48 horas.
La Sección 800.045 del Código Penal de Florida establece sanciones penales claras:
Delito grave de tercer grado: creación, solicitud o posesión consciente de pornografía deepfake. Pena máxima: 5 años de prisión.
Delito grave de segundo grado: posesión con intención de distribución. Pena máxima: 15 años de prisión.
Indemnizaciones civiles: desde $10,000 dólares por cada imagen, acumulables si existen múltiples archivos.
La norma también protege a las plataformas que actúen de “buena fe”, incluso si suprimen por error un contenido legítimo, siempre que lo hagan siguiendo el nuevo protocolo de denuncias.
Organizaciones de monitoreo informan que los casos de deepfakes no consensuales aumentaron alrededor de un 400 % durante 2024, con un perfil de víctimas mayormente compuesto por mujeres y adolescentes.
El daño, según psicólogos y expertos legales, trasciende la humillación inmediata. Afecta la salud mental, la confianza y puede generar repercusiones duraderas en la vida personal y profesional de las personas afectadas.
“Hay que ser proactivos como padres”, advirtió McAdams. “Estas conversaciones sobre lo que puede suceder con la tecnología deben iniciarse en casa. Puede pasarle a un niño, a un adolescente o a un adulto”.
Qué hacer si eres víctima
Los especialistas recomiendan actuar de forma inmediata:
Conservar las pruebas: guardar capturas de pantalla, enlaces y registrar nombres de usuario, fechas y horas.
Reportar el contenido a la plataforma: la legislación federal exige su supresión en menos de 48 horas.
Denunciar ante la policía: en Florida, citar específicamente la Sección 800.045 para asegurar que se presenten los cargos correspondientes.
Evaluar acciones civiles: la víctima puede interponer una demanda para obtener compensación económica y órdenes judiciales que obliguen la retirada del material.
Con esta nueva normativa, Florida se suma a más de una docena de estados que han decidido ir más allá de la legislación federal. La diferencia clave: aquí no solo se exige la eliminación del contenido, sino que se castiga con cárcel a quienes produzcan o difundan pornografía deepfake sin consentimiento.
Los juristas coinciden: el país está empezando a construir un marco legal que combina la rapidez en la supresión del material con instrumentos que permiten a las víctimas obtener justicia.
Agregar Comentario