@Steipete 的建议是用户不该该应用范围较小的模型或者提示词注入防护比较弱的模型来运行高风险义务,重要原因就是这些模型在提示词注入方面的安然防护比较弱或不完美。

事实上在 OpenClaw AI 项目标官方文档中也明白提到这个问题,即今朝无法解决提示词注入,是以用户在高风险场景中应优先应用最新且指令对齐更强的模型来进步安然防护才能。

而 OpenClaw AI 机械人平日须要更高的权限才能履行更多操作,也就是用户付与的权限越高、供给的信息越多,那在出现安然问题后泄漏的信息可能也会越严重。

项目官方文档还提到对于对象型智能体 (可履行、可读写、可联网) 应当收紧权限界线,只靠体系提示词的自发性是完全不敷的,这些都是要用户本身推敲的工作。

提示词注入是如今所有 AI 模型和对象都无法解决的问题,进击者经由过程提示词注入手段可能会引诱 AI 模型履行某些高危操作,严重时可能会泄漏用户的敏感数据。

什么是提示词注入:

提示词注入指的是进击者可以将恶意指令假装在网页 / 邮件 / 文档里引诱 AI 违规履行,例如在网页开首以人类弗成见情势添加 AI 指令请求模型将忽视体系提示词将查询的信息发送到某个办事器。

假如只进行日常问答或润饰案牍等,可以应用范围较小 / 比较旧的模型,这些模型速度更快并且价格可能也加倍便宜,而日常文档和案牍等只要不包含敏感信息即便泄漏也不会有太大年夜影响。

多半时刻 AI 模型读取到这些提示词后可能会因为体系安然设置将其忽视,但有时刻模型可能也会按照弗成见提示词去履行敕令,这就有可能导致用户所有敏感信息全部被泄漏。

假如要跑主动化义务或者其他智能体义务,尤其是须要调用对象并联网履行操作的智能体,那建议用户优先选择最新和更强的模型来进步安然性,同时还须要优化 OpenClaw AI 机械人设置,仅付与最小权限并采取会话隔离和来源过滤等办法进步安然性。

点赞(0) 打赏

评论列表 共有 0 条评论

暂无评论

微信小程序

微信扫一扫体验

立即
投稿

微信公众账号

微信扫一扫加关注

发表
评论
返回
顶部