
阿尔特曼在备忘录中强调,OpenAI不会为大年夜范围监督供给技巧支撑,也不会介入开辟可自立决定致命袭击的兵器体系,这与Anthropic此前在与五角大年夜楼会谈中保持的底线高度一致。Anthropic恰是因拒绝在上述两类用处上作出让步,而与美国国防部爆发了一场备受存眷的高风险博弈。
这一表态使得五角大年夜楼在军用AI范畴的构造面对新的不肯定性。此前,Anthropic旗下的大年夜说话模型Claude率先被整合进美国军方一些最敏感的营业场景中,被视为国防部推动前沿AI技巧军事化应用的重要一步。如今,若OpenAI与Anthropic在关键伦理界线上保持一致,而其他头部公司如Google等也跟进类似立场,五角大年夜楼在寻找替代筹划、尤其是在高敏感军事义务中安排通用型大年夜模型时,将遭受更大年夜的会谈与技巧获取阻力。
环绕军用AI的技巧与伦理之争,在美国科技企业和当局部分之间愈演愈烈。一方面,美国国防部欲望应用通用人工智能晋升谍报分析、作战批示与疆场决定计划才能,甚至摸索更高程度的主动化应用;另一方面,多家领先AI公司则在贸易机会与伦理义务之间寻求均衡,试图经由过程设定“红线”限制技巧在大年夜范围监控及自立致命兵器等敏感范畴的扩散。
阿尔特曼此次发声,被视为在五角大年夜楼与Anthropic不合公开化后,另一家关键玩家对军用AI底线问题作出的清楚定位。在美国AI家当高度集中的背景下,若主流企业在伦理界线上形成共鸣,将深刻影响军方将来获取和安排通用AI才能的路径与节拍,也可能推动美国在军用AI监管与国际规矩方面的进一步评论辩论和博弈。
相干文章:
Anthropic预备退出2亿美元国防合同 美防长威逼强迫共享技巧
美国国防部公开设下最后刻日 请求不受限应用Anthropic AI对象

发表评论 取消回复