
Anthropic曾在2023年承诺,除非能提前包管拥有足够的安然办法,不然毫不练习AI体系。这一承诺成为了Anthropic“负义务扩大政策”(RSP)的核心支柱。多年来,Anthropic高层一向将这一承诺吹捧为他们是一家负义务、可以或许抵抗市场诱惑、不急于开辟具有潜在危险技巧的公司的有力证实。
Anthropic首席科学官贾里德·卡普兰(Jared Kaplan)在接收《时代》独家采访时表示:“我们认为,停止练习AI模型实际上对任何人都没有赞助。跟着AI的快速成长,我们并不认为在竞争敌手快速推动的情况下,我们做出单方面承诺是合理的。”
《时代》查阅的Anthropic新版政策包含:承诺在AI安然风险方面加倍透明,包含额外披露Anthropic自有模型在安然测试中的表示;承诺在安然方面的投入与尽力要达到或超出竞争敌手的程度;它还承诺,假如引导层认为Anthropic是AI比赛的领跑者,并且认为产生灾害性风险的可能性很大年夜,那么他们将“推迟”Anthropic的AI开辟过程。
但总体来看,RSP 的这一调剂让Anthropic在安然政策上受到的束缚大年夜幅削减。此前,该政策明白禁止公司在没有恰当安然办法的情况下,练习跨越特定程度的模型。
然则比来几个月,该公司决定对RSP进行彻底改革。这一决定包含放弃本来的承诺,即假如无法提前包管恰当的风险缓解办法,就不会宣布AI模型。
今朝,Anthropic面对来自OpenAI、埃隆·马斯克(Elon Musk)旗下xAI以及谷歌等竞争敌手的激烈竞争,这些敌手都在按期宣布尖端对象。同时,该公司也与美国国防部就其Claude对象的应用方法陷入争执。此前,Anthropic已告诉五角大年夜楼,这些对象不得用于国内监控或致命性自立行动。然则,美国国防部也向Anthropic发出最后通牒,假如限制应用就解除Anthropic的合同。
Anthropic表示,此次安然政策的调剂是基于AI成长速度以及联邦层面缺乏相干律例而做出的更新。
Anthropic谈话人表示,此次调剂旨在赞助公司在不均衡的政策背景下与多家竞争敌手对抗。在这种情况中,公司必须自行断定安然防护办法是否足够。她还表示,这一安然承诺与五角大年夜楼的会谈无关。
“政策情况已转向优先推敲AI的竞争力和经济增长,而安然导向的评论辩论尚未在联邦层面获得本质性进展。”Anthropic在宣布这一调剂的博客文章中表示。该公司称,仍致力于遵守行业领先的安然标准。

发表评论 取消回复