La empresa estadounidense de inteligencia artificial Anthropic ha anunciado que identificó lo que describió como campañas a “escala industrial” por parte de tres laboratorios de IA con sede en China —DeepSeek, Moonshot AI y MiniMax— para extraer capacidades de su modelo avanzado Claude mediante una técnica conocida como distillation (destilación de modelos).
Según el comunicado oficial publicado por Anthropic, estas campañas involucraron la creación de alrededor de 24 000 cuentas fraudulentas que generaron más de 16 millones de interacciones con el modelo Claude, supuestamente para entrenar o mejorar modelos propios mediante la reproducción de salidas de Claude sin autorización ni cumplimiento de los términos de servicio.
La distillation, técnica común en el aprendizaje automático —donde un modelo menor aprende a partir de las salidas de uno mayor— se convierte aquí en objeto de controversia: aunque es legítima cuando se usa internamente para compresión de modelos, Anthropic argumenta que la forma en que fue empleada en estas campañas violó sus políticas de uso y podría constituir un intento de replicar capacidades avanzadas sin asumir los compromisos de seguridad y responsabilidad asociados a las versiones originales del modelo.
Anthropic sostiene que estas prácticas plantean riesgos más amplios a la industria de IA, en especial si modelos destilados de forma no regulada carecen de mecanismos de seguridad que previenen usos maliciosos, como automatización de ciberataques, generación de desinformación a gran escala o aplicaciones en ámbitos sensibles como biotecnología.
La respuesta de la compañía ha sido reforzar sus sistemas de detección de patrones fraudulentos, compartir inteligencia con otros desarrolladores de IA y aplicar controles más estrictos de acceso, en un llamado a la cooperación del sector y de los responsables políticos para enfrentar este tipo de prácticas. “Los ataques de distillation a esta escala requieren una respuesta coordinada entre actores de la industria, proveedores de nube y legisladores”, afirmó Anthropic.
Este caso se produce en un contexto más amplio de tensiones en la carrera tecnológica global. OpenAI y Google publicaron advertencias similares contra intentos de extraer capacidades de sus modelos, y algunos analistas han vinculado estas acusaciones con debates sobre exportaciones de chips avanzados y control de tecnologías estratégicas.
Mientras tanto, DeepSeek, Moonshot AI y MiniMax no han emitido declaraciones oficiales públicas clarificando sus versiones de los hechos, y la situación refleja la complejidad y la escala del desafío que enfrentan las empresas que desarrollan inteligencia artificial avanzada en un entorno competitivo global.
Fuentes
Computing UK. (2026). Chinese firms used distillation to copy Claude.
Anthropic. (2026). Detecting and Preventing Distillation Attacks.
Reuters. (2026). Chinese companies used Claude to improve own models, Anthropic says.
1 comment
Comments are closed.