Tecnologia

Microsoft, Google, Meta y OpenAI se unen contra la generación

caruri 4685.png
caruri 4685.png
La organización centrada en la seguridad señaló que en 2023 se reportaron más de 104 millones de archivos sospechosos de incluir CSAM en los Estados Unidos.

MADRID, 24 de abril. (Portal/EP) – Microsoft, Meta, Google y OpenAI, junto con otras grandes empresas tecnológicas centradas en el desarrollo de herramientas de inteligencia artificial (IA), se han comprometido a combatir las imágenes de abuso sexual infantil (CSAM) publicadas mediante el uso de esta tecnología y está sujeta a una serie de medidas de seguridad. medidas desde la etapa de diseño.

La organización centrada en la seguridad señaló que en 2023 se reportaron más de 104 millones de archivos sospechosos de incluir CSAM en los Estados Unidos. Una serie de imágenes generadas por IA representan un riesgo significativo para el ecosistema de seguridad para los niños que ya están sobrecargados. A la organización y All Tech is Human, que promueve el uso responsable de la tecnología, se unieron Amazon, Anthropic, Civitai, Google, Meta, Metaphysical, Microsoft, MistralAI, OpenAI, Stability AI y Teleperformance para impulsar una iniciativa de protección de los menores frente a la IA abuso.

Más concretamente, las empresas tecnológicas se han comprometido públicamente a respetar la llamada privacidad por diseño, una serie de medidas que surgieron de la necesidad de eliminar la facilidad de creación de este tipo de contenidos. Hoy en día, los ciberdelincuentes pueden utilizar la IA sintética para diversos fines: hacer más difícil identificar a las víctimas infantiles, crear más demanda de documentos relacionados con el abuso infantil o permitir el intercambio de información entre depredadores sexuales. Como resultado, se han establecido una serie de medidas de seguridad desde el diseño, que exigen que las empresas anticipen dónde pueden surgir las amenazas durante el desarrollo de estas herramientas y diseñen las soluciones necesarias antes de que se produzcan daños.

En primer lugar, los firmantes se han comprometido a desarrollar, construir y entrenar modelos de IA generativa para responder de manera proactiva a los riesgos de seguridad infantil, un proceso en el que se deben estudiar los datos de entrenamiento de sus modelos para no reproducir contenido abusivo. Esta sección también analiza la necesidad de implementar marcas de agua en estas imágenes y el uso de otras técnicas para indicar que son contenido generado por IA. Por otro lado, los gigantes tecnológicos a través de esta iniciativa promoverán la publicación y distribución de modelos generales de IA después de haber sido capacitados y evaluados para la seguridad infantil, protegiendo así siempre a los menores.

También acordaron mantener la seguridad de sus modelos y plataformas de IA, comprender y responder de manera proactiva a los riesgos para la seguridad de los niños e invertir en investigación y soluciones públicas en el futuro y, al mismo tiempo, implementar medidas para detectar y eliminar imágenes que. violar la seguridad de los niños en su plataforma. .

GOOGLE ESTÁ EN ACCIÓN Por su parte, Google habló de su compromiso con los principios generales de seguridad de la IA en su blog, destacando que ahora cuenta con una serie de herramientas para prevenir el CSAM de hardware. En concreto, reconoce el uso combinado de la tecnología de hashmatching con clasificadores de IA, así como la evaluación de contenidos por parte de equipos humanos. Cuando identificamos contenido de explotación, lo eliminamos y tomamos las medidas adecuadas, que pueden incluir informar el incidente al Centro Nacional para Niños Desaparecidos y Explotados (NMEC), del cual somos socios.

También dijo que también utiliza el aprendizaje automático para identificar búsquedas relacionadas con el abuso infantil y la explotación sexual, y evitar resultados que puedan explotar o sexualizar a los niños. También tiene un programa de alerta prioritaria en el que se ha asociado con expertos para identificar contenido potencialmente infractor para que pueda ser revisado por los equipos de seguridad de Google.

TRA Digital

GRATIS
VER