Claude 地点的虚拟机为 API 拜访设置了“白名单”,个中包含 Anthropic 官方的文件 API。这意味着,经由过程这个 API 向 Anthropic 上传文件不会被阻拦。

  • AI 安然研究团队近日发明 Anthropic 推出的 AI 协作新功能——Claude Cowork 存在严重安然风险,可能导致用户文件被进击者长途提取。

    Claude Cowork 是 Anthropic 针对非技巧用户推出的智能办公代理对象,可经由过程天然说话指令对本地文件夹进行读写、整顿、分析等操作。这让 AI 不再是简单的聊天机械人,而是可履行义务的数字助手。

    安然分析显示,在某些前提下,进击者能借助 “间接提示注入”(Indirect Prompt Injection) 马脚操控 Claude Cowork 将用户本地文件上传至进击者控制的后台账户。

    进击流程大年夜致如下:

    1. 用户授权 Cowork 拜访本地文件夹(如包含敏感文件的文件夹)。

    2. 进击者构造含有隐蔽指令的恶意文件并引诱用户上传。

    3. 当 Cowork 处理这些文件时,嵌入的恶意指令会被触发,指导 Claude 向外发送文件数据。

    4. 应用一个进击者自带的 API 密钥,Claude 会借助许可的 Anthropic API 上传这些文件,不须要用户额外确认。

    5. 进击者随后可以经由过程本身的 Anthropic 账号拜访或分析这些文件数据。

    这类进击不须要用户直接履行代码,仅凭上传文件就能完成全部数据外泄过程。安然分析指出,这种风险源于以下技巧原因:

    • Claude Cowork 的运行情况许可拜访指定本地文件夹并解析用户供给的文件。

    • 恶意提示可以让 Claude 运行嵌入在文件中的请求,从而绕过惯例安然防护。

    Anthropic 在宣布 Cowork 时提示用户,这项功能仍处于“研究预览”阶段,并存在未知风险,须要谨慎应用。尤其建议不要授权拜访包含敏感信息的文件。不过安然研究者指出,将防护义务完全交给用户并不实际,特别是面对隐蔽得很深的提示注入进击。

  • 点赞(0) 打赏

    评论列表 共有 0 条评论

    暂无评论

    微信小程序

    微信扫一扫体验

    立即
    投稿

    微信公众账号

    微信扫一扫加关注

    发表
    评论
    返回
    顶部