今朝,一些生成式人工智能模型(例如 Anthropic 的 Claude)已经被安排在涉密情况中,用于答复问题和帮助分析,包含介入对伊朗目标的分析工作。 不过,这些模型现阶段只是基于现有才能对机密信息进行处理,并不会把这些数据再用于练习更新模型本身。 若许可在机密数据上练习,模型在履行特定军事义务时有望加倍精准和高效,但同时也引入前所未有的安然风险。

一位不签字的美国国防官员表示,在机密数据上练习军方定制模型,估计将明显晋升其在特定义务中的表示和靠得住性。 这一筹划涌如今美国军方对更强大年夜 AI 模型需求日益高涨的背景下:五角大年夜楼已经与 OpenAI 和马斯克旗下 xAI 杀青协定,在涉密情况中运行其模型,并履行一项新的人工智能计谋,旨在把美军打造为“以 AI 为先的作战力量”,以应对与伊朗日益进级的冲突。 截至发稿,五角大年夜楼尚未就这一练习筹划作出正式评论。

据两名熟悉相干操作模式的人士介绍,上述练习将被安排在获得机密项目天资认证的数据中间中进行,在那边,某一版本的 AI 模型与机密数据在同一安然情况中配对运行。 按照这位国防官员的说法,尽管数据所有权仍归美国国防部,但在极少数情况下,如相干人员具备响应的安然许可,AI 公司员工也可能获准接触这些机密数据。 在真正触及机密数据之前,五角大年夜楼筹划先在非机密数据(例如贸易卫星图像)长进行测试,以评估练习后的模型在精确性和有效性方面的实际改进。

今朝,美国当局已经建立起部分相干基本举措措施:例如安然公司 Palantir 已获得多个大年夜型合同,为当局搭建可在不将信息回传给 AI 公司的前提下,对机密话题进行问答的安然体系。 在这些体系中,官员可以就涉密内容向模型提问,而数据被限制在受控情况中流转。 然而,把同样的安然架构用于练习,而不只是用于推理和问答,仍然是一项新的技巧与治理挑衅。

美国军方经久以来一向应用较早一代的计算机视觉模型,对无人机与侦查机采集的图像与视频进行物体辨认,并经由过程当局合同,委托企业在此类数据上练习算法。 近年来,面向当局场景的专用大年夜说话模型和聊天机械人版本也陆续出现,例如 Anthropic 推出的 Claude Gov,强调多语种才能和在安然情况中的安排。 不过,此次国防官员的表态,是初次明白泄漏 OpenAI、xAI 等开辟大年夜型说话模型的公司,有可能直接在机密数据上练习当局定制版模型。

前Google与 OpenAI AI 政策负责人、现任计谋与国际问题研究中间(CSIS)部属 Wadhwani AI 中间主任的 Aalok Mehta 指出,比拟仅在涉密情况中“读取和答复”,真正用机密数据来练习模型,将带来新的风险。 他认为最大年夜的问题在于:模型练习所接收的机密信息,有可能在日后被不合用户查询或调用时“从新浮现”。 对于在不合保密等级、不合谍报需求的多个兵种或部分之间共用同一套模型,这一点尤其危险。

Mehta 举例称,假设某模型曾接触高度敏感的人力谍报,例如一名机密行动人员的身份,那么在另一支本不具备拜访权限的军中部分应用该模型时,这些信息有可能不测“泄漏”给他们。 这不仅会对谍报来源和前哨人员造成逝世活攸关的风险,并且在技巧上很难做到绝对防备,尤其是当同一模型被多个单位共用时。 比拟之下,他认为把机密信息“关”在军方内部,避免回流到开放互联网或 AI 公司端,相对更轻易实现。

本年 1 月,国防部长 Pete Hegseth 宣布备忘录,催促加快在全部国防体系中引入更多 AI 才能,推动了五角大年夜楼在该范畴的竞速构造。 生成式 AI 已经在实战中被应用,例如对潜在袭击目标进行排序,并给出优先袭击建议,同时也被用于撰写合同、整顿申报等行政工作。 在国防部分看来,很多本来由人类分析员完成的义务,将来都可能依附更强的 AI 模型,但这也意味着必须向模型开放大年夜量机密数据。

Mehta 称,军方可能欲望 AI 学会一些高度依附经验的奥妙断定,例如像资深分析员那样在图像中辨认极其细微的线索,或者把最新获得的谍报与汗青信息进行复杂接洽关系。 为此,谍报部分复杂而多语种的文本、音频、图像和视频数据,都可能成为练习素材来源。 不过,他也强调,很难对外定义明到底哪些具体义务须要在机密数据长进行练习,因为国防部有强烈念头对自身具体才能保持保密,不欲望其他国度精准懂得美国在这一范畴的技巧界线。

在外界看来,五角大年夜楼这一步既是对前哨需求的回应,也是一场高风险的技巧押注:一旦把机密谍报深度嵌入大年夜模型,军方将收成远超传统体系的主动化分析与决定计划帮助才能,但也必须面对模型“记忆”过多、不测泄漏与拜访界线模糊等新型安然隐患。 当前,美国防务机构试图经由过程建立高度隔离的安然数据中间、严格的拜访控制以及分层、定制化的模型安排方法,在“获得军事优势”和“控制安然风险”之间寻找一个尚未被实践充分考验的均衡点。

点赞(0) 打赏

评论列表 共有 0 条评论

暂无评论

微信小程序

微信扫一扫体验

立即
投稿

微信公众账号

微信扫一扫加关注

发表
评论
返回
顶部