Anthropic acusa a empresas chinas de usar Claude para entrenar sus propios IA

La empresa de IA Anthropic ha acusado a varias firmas chinas —especialmente DeepSeek, Moonshot AI y MiniMax— de reutilizar su modelo de inteligencia artificial Claude para entrenar sus propios sistemas mediante un proceso llamado distillation, algo que Anthropic considera un abuso de su tecnología y de sus reglas de uso.

La distillation es una técnica de entrenamiento de IA en la que un modelo menos potente aprende a imitar las salidas de uno más avanzado, pero Anthropic afirma que aquí se usó de manera impropia para extraer capacidades sin permiso ni coste de desarrollo normal.

Según Anthropic, las tres empresas crearon alrededor de 24 000 cuentas falsas que interactuaron con Claude más de 16 millones de veces, violando así los términos de servicio y las restricciones geográficas, ya que Claude no está disponible oficialmente en China.

Contexto, implicaciones y advertencias

Anthropic advirtió que estos métodos de “distillation” podrían generar modelos sin las salvaguardas de seguridad originales, lo que podría permitir su uso para vigilancia, censura o campañas de desinformación si se liberan en sistemas sin control.

La compañía también sugiere que estas técnicas pueden socavar controles de exportación de chips avanzados, ya que no requieren hardware potente si la información se extrae de un modelo preexistente.

Este caso se suma a otras acusaciones similares hechas recientemente por OpenAI respecto al uso de sus propios modelos por parte de empresas externas para entrenamiento no autorizado.

Vía – TheVerge

Jeremías Rodríguez

Profesor de Historia. Amante de los libros, la tecnología y el buen café.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.