Anthropic Acusa a Tres Gigantes Chinos de IA de Ataques Masivos de “Destilación” Contra Claude
La empresa estadounidense Anthropic, creadora del modelo de lenguaje Claude, ha denunciado públicamente que tres de sus rivales con sede en China llevaron a cabo campañas de “destilación de modelos” a gran escala para copiar sus capacidades más avanzadas. Según un comunicado oficial, estos ataques, que involucraron millones de interacciones desde decenas de miles de cuentas fraudulentas, representan un robo de propiedad intelectual y un riesgo potencial para la seguridad nacional.
La Acusación: Ataques Coordinados de Destilación
La destilación de modelos es una técnica de inteligencia artificial que, en su contexto legítimo, permite crear versiones más eficientes de sistemas propios. Sin embargo, Anthropic acusa a las empresas chinas DeepSeek, Moonshot y MiniMax de emplear esta metodología de manera ilícita y masiva. La firma estadounidense afirma que los competidores utilizaron aproximadamente 24,000 cuentas fraudulentas para generar más de 16 millones de intercambios con la API de Claude, extrayendo sus salidas para entrenar sus propios modelos.
“La destilación puede ser una técnica legítima cuando se usa internamente… pero se vuelve problemática cuando actores externos la usan para replicar capacidades centrales de un modelo sin permiso”, afirmó Anthropic.
Las tres empresas acusadas, todas con valoraciones estimadas en miles de millones de dólares, no habían respondido públicamente a las acusaciones al cierre de esta información.
El Objetivo: Robar las Capacidades Nucleares de Claude
Foco en Fortalezas Diferenciadoras
Las campañas no fueron aleatorias, sino que apuntaron específicamente a las capacidades más avanzadas de Claude. Según la investigación de Anthropic, los atacantes se centraron en extraer conocimientos sobre el razonamiento agéntico (capacidad para planificar y ejecutar tareas complejas), el uso de herramientas (interacción con software externo) y la codificación. También buscaron capacidades en análisis de datos y visión por computadora.
“Cada campaña apuntó a las capacidades más diferenciadas de Claude”, declaró la empresa, subrayando que el objetivo era adquirir estas funcionalidades de alto nivel de manera más rápida y económica que desarrollándolas internamente.
Cómo Fueron Detectados
La detección se logró mediante una combinación de métodos técnicos y colaboración sectorial. Anthropic correlacionó direcciones IP, analizó metadatos de las solicitudes e identificó indicadores específicos de la infraestructura utilizada. Además, la empresa corroboró sus hallazgos con otros actores de la industria que habían observado comportamientos similares.
Más Allá de la Propiedad Intelectual: La Dimensión Geopolítica
Anthropic advirtió que las implicaciones trascienden la competencia comercial. La empresa argumenta que existe un riesgo geopolítico tangible, ya que las capacidades destiladas podrían ser utilizadas por actores estatales.
“Las capacidades robadas podrían integrarse en sistemas militares, de inteligencia y vigilancia de gobiernos autoritarios”, alertó la compañía. Entre las posibles aplicaciones de alto riesgo, Anthropic señaló operaciones cibernéticas ofensivas más sofisticadas, campañas de desinformación a gran escala y sistemas de vigilancia masiva mejorados.
La Respuesta y el Llamado a la Acción
Medidas Defensivas de Anthropic
Como respuesta inmediata, Anthropic ha implementado varias medidas. La empresa ha mejorado sus sistemas para detectar y bloquear patrones de tráfico dudoso, está compartiendo inteligencia sobre estas amenazas con socios de confianza y ajustando los controles de acceso a sus APIs para dificultar futuros abusos.
Un Problema Sistémico que Requiere Colaboración
Anthropic hizo un llamado explícito a una acción más amplia, reconociendo la naturaleza sistémica del desafío. “Ninguna empresa puede resolver esto sola”, declaró la firma, enfatizando la necesidad de una respuesta coordinada.
La compañía abogó por una colaboración que involucre no solo a las principales empresas de IA, sino también a proveedores de servicios en la nube y a legisladores, para establecer marcos más robustos. La decisión de hacer pública la evidencia busca concienciar sobre la escala y la gravedad de una amenaza que combina el espionaje corporativo con riesgos de seguridad nacional en la pugna global por la supremacía en inteligencia artificial.



















