La tecnológica estadounidense denuncia campañas masivas de “destilación ilícita” por parte de DeepSeek, Moonshot AI y MiniMax, lo que pone en riesgo la seguridad nacional.
Campañas industriales de extracción de capacidades
Anthropic, empresa estadounidense creadora del modelo de inteligencia artificial Claude, ha denunciado este lunes que tres laboratorios chinos –DeepSeek, Moonshot AI y MiniMax– llevaron a cabo una campaña industrial de robo de capacidades de su IA. Según la compañía, los laboratorios generaron más de 16 millones de interacciones con Claude mediante unas 24.000 cuentas fraudulentas, violando sus términos de servicio y restricciones regionales.
La práctica de destilación es común en el sector de la IA para crear modelos más ligeros a partir de sistemas avanzados. Sin embargo, Anthropic califica estas operaciones como ilícitas, dado que se realizaron a gran escala utilizando cuentas falsas y proxies para ocultar su origen y extraer capacidades sin autorización.
DeepSeek, Moonshot AI y MiniMax: objetivos y alcance
Según el informe de Anthropic:
- DeepSeek, considerado el equivalente chino de OpenAI, habría realizado más de 150.000 intercambios, enfocándose en razonamiento y respuestas a consultas políticamente sensibles.
- Moonshot AI generó 3,4 millones de interacciones, extrayendo habilidades de programación, análisis de datos y uso de herramientas.
- MiniMax alcanzó 13 millones de intercambios, centrados en programación y orquestación de herramientas, redirigiendo casi la mitad de su tráfico hacia un nuevo modelo de Anthropic apenas 24 horas después de su lanzamiento.
Estas prácticas permiten que laboratorios extranjeros aceleren su desarrollo tecnológico sin invertir en investigación, lo que erosiona las restricciones de exportación de semiconductores avanzados impuestas por EE. UU., según Anthropic.
Riesgo para la seguridad nacional
La empresa advierte que los modelos obtenidos mediante estas campañas carecen de salvaguardas críticas, lo que podría facilitar desarrollos maliciosos, desde ciberataques hasta armas biológicas. Anthropic considera que esta situación representa un riesgo significativo para la seguridad nacional estadounidense y subraya que la magnitud y sofisticación de las campañas requiere coordinación entre industria, proveedores de infraestructura y autoridades políticas.
Refuerzo de protección y transparencia
Para contrarrestar estas amenazas, Anthropic ha:
- Fortalecido sistemas de detección mediante clasificadores y análisis de huella de comportamiento.
- Endurecido la verificación de cuentas.
- Compartido indicadores técnicos con otros laboratorios y autoridades competentes.
La compañía ha publicado la información públicamente para garantizar que la evidencia esté disponible y pueda guiar respuestas políticas y estratégicas ante el avance tecnológico chino.
Anthropic alerta de que el robo masivo de capacidades de IA por laboratorios chinos no solo amenaza su negocio, sino que podría comprometer la seguridad tecnológica y nacional de Estados Unidos.

