根据庭审文件,这份陈述指出,当局将Anthropic列为“供给链风险”的决定,是对权力的欠妥和果断应用,并可能对整小我工智能行业产生严重影响。 联署者包含Google DeepMind首席科学家Jeff Dean等业内重量级技巧人士。
此前,美国五角大年夜楼正式将Anthropic认定为“供给链风险”,这一标签平日只针对“外国敌手”。 报道称,导火索在于Anthropic拒绝许可国防部应用其AI技巧对美国公平易近进行大年夜范围监控,或用于自立开仗兵器体系;而国防部方面保持认为,只要用处“合法”,就不该受到私营承包商的限制。
值得留意的是,个中不少签订此次法庭陈述的员工,此前已经介入联署公开信,呼吁国防部撤销对Anthropic的供给链风险认定,并请求自家公司治理层公开支撑Anthropic,承诺拒绝在未设防的前提下,将自家AI体系供给给军方单方面应用。

在Anthropic先后对国防部及其他联邦机构提起两告状讼后,这份支撑其立场的“法庭之友”看法书随即涌如今檀卷中,由此显示出业界内部环绕军方AI应用界线的重要态势。 有报道称,最早披露这份看法书的是《连线》杂志。
在提交给法院的文件中,这些来自Google和OpenAI的员工强调,假如五角大年夜楼对与Anthropic的既有合同条目“不再知足”,完全可以直接解除合同,转而采购其他领先AI公司的办事,而不是经由过程供给链风险认定的方法进行“处罚”。
事实上,在将Anthropic列为供给链风险的几乎同一时光,国防部便与OpenAI杀青了一项新的合作协定,此举也在OpenAI内部激发了部分员工的强烈抗议。 这些员工担心,军方借助贸易大年夜模型开展敏感用处测试,会冲击行业在安然界线上的共鸣。
看法书警告称,假如这类“处罚性”办法得以延续,将无可避免地减弱美国在人工智能及更广泛科学家当范畴的竞争力。 文件进一步指出,这种做法也会对业内关于现代AI体系风险与收益的公开评论辩论造成寒蝉效应,阻碍技巧社区就安然问题进行坦诚辩论。
在当前尚缺乏针对AI应用的成文公共司法框架下,文件认为,开辟者经由过程合同条目和技巧手段对体系施加的各类限制,是防止AI被灾害性滥用的重要安然阀门。 Anthropic在与军方合作中规定的“红线”,例如拒绝介入大年夜范围监控和自立杀伤体系,被联名员工视为合理且须要的安然请求,而不是“对国度安然的阻碍”。
业内分析认为,此案不仅关乎一家AI企业可否在合同层面保持自身安然底线,更将成为美国如安在国度安然需求与AI安然治理之间划线的标记性事宜。 跟着诉讼推动,科技公司、员工与当局之间环绕军事AI应用的博弈,估计还将进一步进级。
相干文章:
Anthropic告状美国国防部 请求阻拦将其列入国度安然黑名单

发表评论 取消回复