Anthropic发难,指控中国AI公司“模型蒸馏”侵权。
2026年2月24日,美国独角兽公司Anthropic发布声明,指控中国三家头部大模型型企业DeepSeek(深度求索)、Moonshot(月之暗面)和MiniMax利用欺诈性账户和代理服务,窃取Claude大模型能力。该公司声称,三家中国AI公司使用了一种叫做“模型蒸馏”的技术来提升自身模型能力,即利用一个能力较弱的模型在更高级模型的输出结果上进行训练。
Anthropic认为,DeepSeek、Moonshot和MiniMax的行为违反其服务条款和区域访问限制,这几家公司通过约24,000个欺诈性账户生成了超过1,600万次与Claude的交互。
核心指控,Claude模型能力被大规模窃取
Anthropic表示,中国AI公司的“蒸馏”技术都遵循了相似的路径,它们利用欺诈性账户和代理服务大规模访问Claude,同时逃避检测,目标直指Claude的代理推理(agentic reasoning)、工具使用和编码能力。
DeepSeek(深度求索):超过15万次交互,重点在于提取Claude在多样化任务中的推理能力。这些活动产生了同步的流量模式,账户间存在相同的模式、共享的支付方式以及协调的时间安排,这暗示了为了增加吞吐量、提高可靠性并避免检测而进行的负载均衡。
Moonshot AI(月之暗面):超过340万次交互,目标涵盖代理推理和工具使用、编码与数据分析、计算机使用代理开发以及计算机视觉,旨在重建Claude的推理轨迹。
MiniMax:这是三者中规模最大的,超过1,300万次交互,明确针对代理编码、工具使用和编排。Anthropic特别指出,MiniMax 在 24 小时内便将近一半流量转向新系统,以捕获最新功能,显示出极强的适应性。
针对此事,马斯克在X平台转发调侃,火力全开:“他们竟敢‘偷窃’Anthropic从人类程序员那儿‘顺’走的东西?”
技术分歧:蒸馏技术的合法性与滥用问题
Anthropic声称,上述公司窃取Claude的核心技术,依赖的是代理服务,也就是“九头蛇集群架构”(hydra cluster architectures),可以绕过前沿AI模型的访问权限。
Anthropic的指控也引发了一个热议话题,那就是AI系统究竟是如何被训练的?
目前来看,大多数大型语言模型,包括领先的商业系统,本身都是基于海量公开互联网数据上训练,通常并未获得原始作者的明确同意。
Counterpoint Research的副总裁Neil Shah表示:“正如许多基础模型通过引用互联网数据构建模型的路径一样,通常未经创作者的明确同意,或是搭便车利用了其他搜索引擎的内容,新的进入者在许多情况下也正在走同样的‘蒸馏’和优化路线。”他补充道,关于谁拥有合成数据以及把这些数据用于训练(尤其是开源模型)是否合规的问题,一直存在根本性的分歧,而这一点在法律上大多尚未定义。
Anthropic并非首家因“蒸馏”对华发难的企业。此前OpenAI刚指控DeepSeek蒸馏GPT模型,DeepSeek虽以“上哪儿偷去”回应并强调架构创新,但也承认训练数据中混杂的OpenAI生成内容,可能令模型间接受益。
技术出口政策管制与国家安全
Anthropic从国家安全的角度,指控了模型蒸馏的违法性,认为非法蒸馏的模型可能会让美国之前控制先进AI技术能力输出的行为失效。此事一出,有专家指出问题的症结点,目前的美国出口管制主要集中在硬件上,而非大型语言模型。
“必须将硬件限制与服务访问区分开来。美国出口管制主要集中在先进半导体、高性能计算基础设施以及在某些监管时刻针对特定类别的先进AI模型权重。目前并没有禁止向中国提供大型语言模型API访问权限的通用禁令,”Greyhound Research的CEO兼首席分析师Sanchit Vir Gogia解释道。
但这并不意味着开发者可以高枕无忧。Gogia 补充说,美国工业和安全局(Bureau of Industry and Security)正在持续完善与先进计算商品及高能力系统相关的许可框架。此外,如果一家公司明知其支持受限制实体的训练活动,特别是那些与军事或战略目标相关的实体,那么即使没有进行硬件输出,也可能面临暴露风险。
为了保护自身利益,许多美国AI提供商已经通过商业政策和合规行为限制了其产品在中国的可用性,甚至超出了严格要求的范围。
Ankura Consulting 的全球合伙人/高级常务董事(印度区)表示:“对于开发者来说,这种风险虽然间接但真实存在:如果你的产品为受限地区或实体提供了访问途径,超出了被禁止的最终用途,或者帮助他人绕过提供商的地理限制,那么根据最终用户是谁以及系统实现了什么功能,你都可能触发账户终止、合同责任,甚至可能面临监管审查。”
LLM API开发将采取更严格的限制措施
对于那些正在使用大语言模型构建或训练模型的开发者来说,Anthropic 的指控凸显了一个日益扩大的灰色地带。开发者通常会使用LLM API进行应用程序开发、测试或评估。但目前,各大模型服务提供商正在密切关注利用模型输出进行大规模、自动化训练以开发竞争系统的做法。
例如,Anthropic 正在通过投资防御性技术来应对这一挑战。在检测方面,该公司已构建了多个分类器和行为指纹系统,旨在识别API流量中的“蒸馏攻击”模式。同时,鉴于教育账户、安全研究项目和初创组织常被利用来设立欺诈账户,该公司也加强了对这些渠道的验证。此外,Anthropic 还正在实施产品级、API级和模型级的防护措施,旨在降低模型输出在非法蒸馏中的有效性,同时不损害合法客户的使用体验。
开发者自身也应确保其模型训练过程是安全、合规且经得起推敲的。对于开发者来说,应审查API/服务条款,并假设未经明确许可,不得在输出结果上进行训练。他们应为每一个训练/示例项目的来源保留清晰的记录,并附上相应的许可/条款。同时,应将运营日志与训练数据集分开保存,并设定保留期限限制。
Gogia认为,地缘政治方面的尽职调查不能只是事后补救。受限方筛查、出口合规审查以及特定地区的访问控制,正日益成为AI治理的一部分,特别是对于跨国运营的企业而言。如果监管机构或收购方要求开发者解释其训练流程,开发者应能够提供完整的文档记录,且没有任何保留。