Este contenido fue hecho con la asistencia de una inteligencia artificial y contó con la revisión del editor/periodista.
CIUDAD DE MÉXICO. — El sistema de lenguaje DeepSeek, originario de China, se ha vuelto objeto de una polémica a nivel mundial después de que varios países decretaran vetos y alertas regulatorias debido a fallas serias en su seguridad, peligros para la privacidad y una supuesta sintonía ideológica con el Partido Comunista Chino (PCCh).
Organismos en Europa y Asia han levantado la voz de alarma ante lo que perciben como una amenaza a la autonomía de los datos y la seguridad tecnológica, particularmente en lo referente al manejo de información delicada en servidores sujetos a la jurisdicción china.
El principal motivo de preocupación global reside en la política de protección de datos de DeepSeek, que exige que toda la información de los usuarios —incluyendo datos personales, historiales de uso y direcciones IP— sea guardada en servidores ubicados en la República Popular China.
Adicionalmente, la compañía se reserva el derecho de emplear las interacciones de los usuarios para perfeccionar sus modelos, lo que significa que datos confidenciales pueden ser procesados legalmente por DeepSeek con miras a la mejora técnica.
Expertos señalan que, conforme a la Ley de Seguridad Nacional de China, el Estado tiene la capacidad de acceder a dichos datos alegando la protección de la seguridad nacional. Esta estipulación ha generado especial alarma en entes europeos, quienes consideran el modelo incongruente con las directrices de resguardo de datos, como el Reglamento General de Protección de Datos (GDPR).
En enero de 2025, la autoridad italiana de protección de datos vetó DeepSeek por falta de transparencia y su negativa a acatar la legislación europea.
Irlanda alertó que la información enviada a servidores chinos queda fuera de las salvaguardas de la UE; mientras que Corea del Sur suspendió las nuevas descargas del modelo por no cumplir con las normativas locales de privacidad.
Por su parte, Taiwán prohibió su utilización en oficinas de gobierno, al estimar que la herramienta representa un peligro para la seguridad nacional y la estabilidad geopolítica.
Los problemas de DeepSeek no se circunscriben al ámbito legal. En enero de 2025, especialistas en ciberseguridad descubrieron una base de datos pública sin mecanismos de verificación que pertenecía a la empresa, dejando expuestos más de un millón de registros internos.
Entre los datos expuestos se encontraban registros de chat en texto simple, claves API, secretos criptográficos y metadatos operativos.
Conforme a los especialistas, este descuido pudo haber facilitado el espionaje corporativo o el acceso no autorizado a sistemas internos.
Este incidente refuerza la impresión de que la compañía ha priorizado la celeridad en el desarrollo sobre la seguridad, un patrón común en su ambición por competir con sistemas occidentales como ChatGPT o Gemini.
Diversos reportes internacionales indican que DeepSeek no opera como una entidad autónoma, sino como una herramienta vigilada y financiada por instancias estatales y militares de China.
Más del 85% de las respuestas del modelo sobre temas políticos delicados —tales como democracia, derechos humanos o Taiwán— son retenidas o alteradas para ajustarse a los “principios socialistas fundamentales” dictados por el gobierno chino.
Analistas afirman que esta restricción sistemática convierte a DeepSeek en un vehículo de difusión de propaganda digital, diseñado para apoyar la versión oficial tanto dentro como fuera del país.
La empresa también enfrenta señalamientos por apropiación indebida de propiedad intelectual. Investigadores han identificado semejanzas entre DeepSeek y modelos occidentales como Gemini y ChatGPT, lo que sugiere posibles métodos de destilación o extracción de datos durante su entrenamiento.
Sus condiciones de servicio trasladan la responsabilidad legal por violaciones de derechos de autor a los propios usuarios, exponiéndolos a riesgos de litigio si se comprueba el uso de tecnología plagiada.
Aunque el sistema ha sido implementado en cientos de centros médicos chinos, expertos advierten que su aplicación clínica es prematura y riesgosa.
DeepSeek tiende a generar respuestas que parecen ciertas pero son falsas, un fenómeno conocido como alucinación. En el ámbito sanitario, estas inexactitudes podrían desencadenar diagnósticos equivocados o tratamientos inadecuados.
La arquitectura del sistema —que revela parcialmente su lógica de pensamiento interna para aumentar la eficiencia— agrava su exposición a ataques de alteración, poniendo en peligro tanto la seguridad de la información como la fiabilidad de sus resultados.
Según las evaluaciones de riesgo, DeepSeek constituye un modelo de alta peligrosidad para entidades públicas o privadas que manejen datos confidenciales.
Las autoridades sugieren mantener o intensificar las prohibiciones de uso en territorios con marcos de privacidad rigurosos, como la Unión Europea, y alertan al sector empresarial sobre la necesidad de auditorías exhaustivas de ciberseguridad antes de considerar su adopción.
“La combinación de una ingeniería de seguridad inmadura, fallos técnicos y dependencia gubernamental convierte a DeepSeek en un peligro significativo para la privacidad global y la autonomía digital”, concluye el informe.















Agregar Comentario