Escándalo en Inteligencia Artificial: Anthropic Acusa a Empresas Chinas de Robo de Datos
Una denuncia explosiva sobre prácticas desleales sacude el mundo de la inteligencia artificial, donde Anthropic acusa a tres empresas de China de utilizar técnicas clandestinas para apoderarse de su innovador modelo, Claude.
Anthropic, uno de los líderes en desarrollo de inteligencia artificial, ha revelado un alarmante descubrimiento: 24.000 cuentas falsas y más de 16 millones de intentos destinados a extraer información interna y acelerar el avance de sus propios sistemas. En este contexto, las empresas implicadas son DeepSeek, Moonshot y MiniMax.
La Técnica de Destilación: Un Método Controversial
Anthropic denuncia que estas empresas aplicaron un método denominado destilación, que permite transferir conocimientos de un modelo avanzado a uno más elemental. Esto implica que los laboratorios extranjeros han utilizado a Claude como un “profesor” para mejorar sus propias redes neuronales.
Detalles de la Acusación
La compañía señala que las prácticas de estas empresas fueron claramente malintencionadas:
DeepSeek buscaba desentrañar los procesos lógicos detrás de las respuestas complejas de Claude, lo que le habría proporcionado valiosos insumos para su desarrollo. MiniMax, por su parte, acumuló más de 13 millones de interacciones, con el objetivo de entender la programación del comportamiento de agentes dentro del sistema. Moonshot AI concretó más de 3,4 millones de intercambios centrados en el razonamiento de agentes.
Preocupaciones sobre Seguridad Nacional
Anthropic califica estas acciones como una “campaña industrial” que no solo rompe los términos de servicio establecidos, sino que puede tener serias implicaciones para la seguridad nacional. La empresa comentó: «El volumen y la estructura de las solicitudes evidencian un uso no legítimo, diseñado para destruir habilidades en lugar de un uso natural.»
Anthropic ha alertado sobre la situación, enfatizando las implicaciones de este escándalo en el ámbito de la inteligencia artificial.
Además, advierte que acciones como estas no solo representan un efecto negativo en la competencia económica, permitiendo que algunos eviten años de investigación, sino que también conllevan riesgos para la seguridad nacional.
Otras empresas del sector, como OpenAI y Google, también han denunciado preparativos similares de extracción de datos por parte de actores internacionales. Estas situaciones han encendido las alarmas en Estados Unidos, donde legisladores y expertos reclaman un refuerzo en la protección de los modelos de inteligencia artificial ante ataques organizados.
