Claude 地点的虚拟机为 API 拜访设置了“白名单”,个中包含 Anthropic 官方的文件 API。这意味着,经由过程这个 API 向 Anthropic 上传文件不会被阻拦。
AI 安然研究团队近日发明 Anthropic 推出的 AI 协作新功能——Claude Cowork 存在严重安然风险,可能导致用户文件被进击者长途提取。

Claude Cowork 是 Anthropic 针对非技巧用户推出的智能办公代理对象,可经由过程天然说话指令对本地文件夹进行读写、整顿、分析等操作。这让 AI 不再是简单的聊天机械人,而是可履行义务的数字助手。
安然分析显示,在某些前提下,进击者能借助 “间接提示注入”(Indirect Prompt Injection) 马脚操控 Claude Cowork 将用户本地文件上传至进击者控制的后台账户。
进击流程大年夜致如下:
-
用户授权 Cowork 拜访本地文件夹(如包含敏感文件的文件夹)。
-
进击者构造含有隐蔽指令的恶意文件并引诱用户上传。
-
当 Cowork 处理这些文件时,嵌入的恶意指令会被触发,指导 Claude 向外发送文件数据。
-
应用一个进击者自带的 API 密钥,Claude 会借助许可的 Anthropic API 上传这些文件,不须要用户额外确认。
-
进击者随后可以经由过程本身的 Anthropic 账号拜访或分析这些文件数据。


这类进击不须要用户直接履行代码,仅凭上传文件就能完成全部数据外泄过程。安然分析指出,这种风险源于以下技巧原因:
-
Claude Cowork 的运行情况许可拜访指定本地文件夹并解析用户供给的文件。
-
恶意提示可以让 Claude 运行嵌入在文件中的请求,从而绕过惯例安然防护。
Anthropic 在宣布 Cowork 时提示用户,这项功能仍处于“研究预览”阶段,并存在未知风险,须要谨慎应用。尤其建议不要授权拜访包含敏感信息的文件。不过安然研究者指出,将防护义务完全交给用户并不实际,特别是面对隐蔽得很深的提示注入进击。

发表评论 取消回复