
据介绍,这些公司被指应用所谓“蒸馏(distillation)”技巧,从 Claude 如许的更先辈模型中提取才能来练习范围更小的模型。 Anthropic 在解释中承认,模型蒸馏本身是一种“合法的练习办法”,但同时强调这种办法“也可能被用于不合法目标”,例如在远低于自立研发的时光成本和资金成本下,从其他实验室获取强大年夜才能。
Anthropic 特别警告称,以这种方法不法蒸馏获得的模型,很大年夜概率不会持续原有模型中的安然防护与限制机制。 公司指出,“外国实验室在对美国模型进行蒸馏时,可以绕过这些安然束缚,将未受保护的才能直接输入军事、谍报与监控体系,从而使威权当局可以或许将前沿 AI 用于进攻性收集行动、虚假信息扩散以及大年夜范围监督等用处”。
在这起事宜中,DeepSeek 是存眷度最高的一家——这家公司凭借算力效力更高、机能强劲的模型,曾在全球 AI 行业激发震动。 Anthropic 称,DeepSeek 与 Claude 之间的交互次数跨越 15 万次,尤其集中在 Claude 的推理才能上。 此外,DeepSeek 还被指应用 Claude 生成“合适审查的替代表述”,用于答复涉及贰言人士、党内引导人或威权主义等政治敏感问题,以规避本国审查体系的过滤。
针对 DeepSeek 的质疑不仅来自 Anthropic。就在一周前,OpenAI 在写给美国立法者的一封信中,也责备 DeepSeek 经由过程类似的蒸馏手段,经久“搭便车”式地应用 OpenAI 及其他美国公司已开辟出的模型才能,以谋求竞争优势。 这封信同样将 DeepSeek 定位为对美国 AI 生态和技巧领先地位构成威逼的一方。
今朝,Anthropic 尚未在公开声明中具体披露后续的司法或监管行动路径,但经由过程将此事上升到国度安然和全球 AI 治理层面,公司显然欲望推动监管机构和政策制订者正视“模型蒸馏被滥用”的风险。 在全球 AI 比赛日趋激烈、跨境技巧流动高度敏感的当下,这一指控也进一步加剧了环绕中美 AI 技巧竞争与安然博弈的重要氛围。

发表评论 取消回复