Durante meses, la competencia entre Estados Unidos y China por el liderazgo en inteligencia artificial se ha centrado en quién desarrolla los modelos más avanzados o lanza innovaciones primero. Sin embargo, el foco comienza a desplazarse hacia un aspecto más sensible: la regulación y el respeto a las normas del sector. Recientemente, Anthropic ha denunciado campañas masivas de “destilación” dirigidas a su modelo Claude, lo que eleva el debate más allá de lo meramente técnico.
La denuncia. En un comunicado publicado este lunes, Anthropic asegura haber identificado “campañas a escala industrial” para extraer capacidades de su modelo Claude. Según la empresa, DeepSeek, Moonshot y MiniMax habrían realizado más de 16 millones de consultas a través de unas 24.000 cuentas fraudulentas, infringiendo tanto los términos de servicio como las restricciones regionales de acceso.
Contexto de rivalidad. El anuncio de Anthropic, liderada por Darío Amodei, llega en un momento de creciente tensión por el avance de la IA china. Hace un año, DeepSeek sorprendió a Silicon Valley con el lanzamiento de R1, un modelo competitivo desarrollado a un coste significativamente menor que sus equivalentes estadounidenses, lo que reavivó el debate político en Washington sobre la supremacía tecnológica frente a China.
La destilación, una práctica común. Anthropic reconoce que la destilación es una técnica habitual: consiste en entrenar modelos más pequeños usando las respuestas de modelos más potentes, permitiendo así versiones más eficientes. El problema surge, según la compañía, cuando esta técnica se emplea para replicar capacidades avanzadas de otros laboratorios, reduciendo drásticamente el tiempo y los recursos necesarios para igualar desarrollos ajenos. En ese contexto, la destilación deja de ser una optimización interna y pasa a ser, según Anthropic, una forma de apropiación indebida.
Patrones de extracción. Los laboratorios señalados habrían utilizado cuentas falsas y servicios proxy para acceder masivamente a Claude, eludiendo los sistemas de detección. Anthropic describe infraestructuras como “hydra cluster”, redes de cuentas que distribuyen el tráfico entre la API y plataformas en la nube, permitiendo que, al bloquear una cuenta, otra tome su lugar. Lo que distingue estas campañas no es una consulta aislada, sino la repetición coordinada y masiva de solicitudes para extraer capacidades específicas del modelo.
Tres campañas diferenciadas. Aunque Anthropic agrupa las campañas bajo una misma dinámica, identifica diferencias clave: DeepSeek habría centrado más de 150.000 consultas en capacidades de razonamiento y respuestas seguras a temas sensibles; Moonshot, con más de 3,4 millones de consultas, se habría enfocado en agentes capaces de manipular herramientas y entornos informáticos; MiniMax, con más de 13 millones de consultas, habría reaccionado rápidamente al lanzamiento de un nuevo sistema, redirigiendo su tráfico para extraer capacidades del modelo más reciente.
Implicaciones geopolíticas. Anthropic advierte que los modelos destilados ilícitamente pueden perder salvaguardas críticas, facilitando su uso en actividades como el desarrollo de armas biológicas o campañas de desinformación. Además, sostiene que la destilación puede debilitar los controles de exportación, permitiendo a laboratorios extranjeros avanzar rápidamente, aunque reconoce que estas operaciones requieren acceso a hardware avanzado, lo que refuerza la necesidad de restringir su disponibilidad. El riesgo aumenta si estas capacidades terminan en sistemas militares, de inteligencia o vigilancia.
Fuente: xataka.com