Robo de IA a gran escala: Anthropic denuncia a laboratorios chinos
La compañía estadounidense Anthropic denunció una campaña a escala industrial orquestada por los laboratorios chinos DeepSeek, Moonshot AI y MiniMax para extraer las capacidades de su modelo de inteligencia artificial Claude. Mediante una técnica de destilación y miles de cuentas fraudulentas, los actores evadieron bloqueos geográficos, intensificando las tensiones tecnológicas globales.
El informe técnico oficial, titulado Detecting and preventing distillation attacks, detalla que las firmas asiáticas crearon sistemáticamente 24.000 cuentas fraudulentas para vulnerar los controles de acceso regional hacia China. A través de estas identidades, generaron más de 16 millones de interacciones automatizadas contra la interfaz de Claude con el objetivo de obtener datos de entrenamiento de alta calidad para nutrir sus propios sistemas.
De acuerdo con la telemetría revelada por la empresa desarrolladora con sede en San Francisco, la operación de mayor volumen fue ejecutada por MiniMax, responsable de 13 millones de intercambios. Para sostener este nivel de tráfico sin activar bloqueos automáticos, los perpetradores emplearon redes proxy comerciales. Destaca el uso de un clúster tipo hidra, una infraestructura que logró administrar más de 20.000 perfiles simultáneos enmascarando su origen geográfico y simulando tráfico legítimo occidental. Por su parte, empresas como DeepSeek enfocaron sus consultas en la extracción de cadenas de razonamiento lógico y respuestas seguras contra la censura.
La táctica empleada, conocida en la industria como destilación, permite a competidores escalar sus propios modelos utilizando las respuestas de una inteligencia artificial de frontera como maestro. Esto se traduce en un ahorro de millones de dólares en poder computacional y tiempo de investigación.
La divulgación del incidente ha polarizado a la comunidad tecnológica. Mientras Anthropic advierte sobre riesgos a la seguridad nacional, argumentando que los modelos resultantes carecen de las barreras de contención corporativas frente a usos maliciosos, diversos analistas y medios especializados, incluyendo PCMag y foros como LocalLLaMA, acusan una doble moral. Los críticos señalan que las corporaciones estadounidenses construyeron sus modelos originales replicando métodos similares de extracción masiva de datos en internet, a menudo sin permisos explícitos de los autores.
Como primera línea de defensa, Anthropic ha comenzado a desplegar sistemas de huella de comportamiento y protocolos de verificación biométrica o documental más estrictos en su plataforma. A nivel macro, el sector anticipa que este reporte será instrumentalizado en el corto plazo por el Congreso de Estados Unidos para justificar un endurecimiento en las políticas de exportación de microprocesadores y la imposición de normativas obligatorias de identificación para quienes arrienden capacidad de procesamiento de inteligencia artificial en la nube.
Fuente: Informe Oficial de Anthropic, PCMag, ADN40, AI News y BankInfoSecurity.
El informe técnico oficial, titulado Detecting and preventing distillation attacks, detalla que las firmas asiáticas crearon sistemáticamente 24.000 cuentas fraudulentas para vulnerar los controles de acceso regional hacia China. A través de estas identidades, generaron más de 16 millones de interacciones automatizadas contra la interfaz de Claude con el objetivo de obtener datos de entrenamiento de alta calidad para nutrir sus propios sistemas.
De acuerdo con la telemetría revelada por la empresa desarrolladora con sede en San Francisco, la operación de mayor volumen fue ejecutada por MiniMax, responsable de 13 millones de intercambios. Para sostener este nivel de tráfico sin activar bloqueos automáticos, los perpetradores emplearon redes proxy comerciales. Destaca el uso de un clúster tipo hidra, una infraestructura que logró administrar más de 20.000 perfiles simultáneos enmascarando su origen geográfico y simulando tráfico legítimo occidental. Por su parte, empresas como DeepSeek enfocaron sus consultas en la extracción de cadenas de razonamiento lógico y respuestas seguras contra la censura.
La táctica empleada, conocida en la industria como destilación, permite a competidores escalar sus propios modelos utilizando las respuestas de una inteligencia artificial de frontera como maestro. Esto se traduce en un ahorro de millones de dólares en poder computacional y tiempo de investigación.
La divulgación del incidente ha polarizado a la comunidad tecnológica. Mientras Anthropic advierte sobre riesgos a la seguridad nacional, argumentando que los modelos resultantes carecen de las barreras de contención corporativas frente a usos maliciosos, diversos analistas y medios especializados, incluyendo PCMag y foros como LocalLLaMA, acusan una doble moral. Los críticos señalan que las corporaciones estadounidenses construyeron sus modelos originales replicando métodos similares de extracción masiva de datos en internet, a menudo sin permisos explícitos de los autores.
Como primera línea de defensa, Anthropic ha comenzado a desplegar sistemas de huella de comportamiento y protocolos de verificación biométrica o documental más estrictos en su plataforma. A nivel macro, el sector anticipa que este reporte será instrumentalizado en el corto plazo por el Congreso de Estados Unidos para justificar un endurecimiento en las políticas de exportación de microprocesadores y la imposición de normativas obligatorias de identificación para quienes arrienden capacidad de procesamiento de inteligencia artificial en la nube.
Fuente: Informe Oficial de Anthropic, PCMag, ADN40, AI News y BankInfoSecurity.

