“不作恶”沦为过去式?谷歌(GOOGL.US)拒绝步Anthropic后尘 签下美国防部机密AI合作协议

智通财经17:15

智通财经APP获悉,据媒体援引知情人士消息报道,谷歌(GOOGL.US)已加入越来越多科技公司的行列,与美国国防部签署协议,允许其人工智能(AI)模型用于机密工作。报道称,该协议允许美国国防部将谷歌的AI模型用于“任何合法的政府用途”。这使谷歌与OpenAI以及马斯克旗下xAI一样,后者也已签署协议,为机密用途提供AI模型。

机密网络用于处理广泛的高敏感性工作,包括任务规划和武器瞄准。据报道,谷歌与美国国防部的协议要求该公司根据政府的要求,协助调整其AI的安全设置和过滤器。该合同包含的条款表述为:“双方同意,在没有适当人类监督和控制的情况下,AI系统不得用于国内大规模监控或自主武器(包括目标选择)。”然而,报道补充称,该协议也规定,谷歌无权控制或否决合法的政府行动决策。

谷歌表示,其支持政府机构开展机密及非机密项目。一位发言人表示,谷歌仍坚持行业共识,即AI不应被用于国内大规模监控,也不应用于缺乏适当人工监督的自主武器。谷歌发言人表示:“我们认为,以行业标准做法和条款提供对商业模型的API访问权限(包括在谷歌基础设施上运行),是一种负责任地支持国家安全的方式。”

美国国防部表示,其无意利用AI对美国民众实施大规模监控,也无意开发无需人类参与即可运行的武器,但希望允许AI的“任何合法用途”。

美国防部力推“全合法用途”标准 Anthropic拒绝妥协被拉入“黑名单”

美国国防部在2025年与包括Anthropic、OpenAI和谷歌在内的多家主要AI实验室签署了最高价值各2亿美元的协议。此前报道称,美国国防部一直在推动包括OpenAI和Anthropic在内的顶级AI公司,使其工具能够在机密网络上运行,并取消这些公司通常对用户施加的标准限制。

美国国防部在其“全合法用途”(All Lawful Use)采购标准上的立场正变得日益强硬。该标准要求军事机构有权在现有美国法律和军事政策允许的任何范围内使用供应商的AI能力,而无需受制于科技公司附加的伦理限制条款。

在这一标准的执行过程中,谷歌的主要竞争对手Anthropic遭遇了美国政府严厉的打压。Anthropic拒绝妥协,坚持在其合同中保留禁止将Claude模型用于国内大规模监控和无人类监督的完全自主武器的限制。

Anthropic则因此被美国政府列为“供应链风险”,并被给予6个月的过渡期从美国政府网络中全面清退。美国总统特朗普更是直接下令所有联邦机构立即停止使用Claude,指责其为试图强迫军队接受其价值观的“激进左翼”公司。

3月9日,Anthropic就特朗普政府将其列为“供应链风险”的决定对美国防部及其他联邦机构提起诉讼。3月26日,美国加州北区联邦地区法院法官Rita F. Lin批准了Anthropic的临时禁令申请,阻止美国联邦政府禁用Anthropic人工智能技术的命令生效。

值得一提的是,Anthropic与美国政府之间的紧张关系似乎正在缓和。特朗普上周二在接受采访时表示,有望达成一项协议,允许Anthropic的AI模型在美国国防部内部使用。本月早些时候,Anthropic发布了Mythos模型。鉴于其先进的网络安全能力,该模型仅向部分精选企业推出。Anthropic表示,正就该模型与美国政府官员进行“持续讨论”。尽管该模型是在Anthropic与国防部争端最激烈的时候推出的,但其发布为该公司重新赢得政府好感打开了大门。

“不作恶”沦为过去式?

若上述报道中的协议属实,将标志着谷歌在面对国家安全与伦理准则的长期博弈后,其企业战略发生了根本性转向。在面对微软(MSFT.US)Azure和亚马逊(AMZN.US)AWS在政府机密云市场的长期主导地位时,谷歌亟需通过此类国防级AI整合项目来实现业务的战略突围。

谷歌与美国国防部达成的机密AI协议实际上是其内部AI伦理准则经过数年深刻修正后的必然结果。2018年,在员工的强烈抗议下,谷歌退出了利用AI分析无人机视频的“Maven项目”(Project Maven),并在此后确立了明确的AI原则,承诺不开发用于武器或极易造成伤害的监控技术。

然而,随着全球AI军备竞赛的加剧,谷歌这一立场发生了根本性改变。2025年2月,谷歌悄然修改了其内部的AI原则,直接删除了题为“我们不会追求的应用”的部分,即取消了不将AI用于武器和监控的承诺。

在2026年3月的内部全体会议上,谷歌全球事务副总裁Tom Lue向对国防合同感到担忧的员工传递了明确的信号,表示公司正在“更多地倾向于”国家安全工作,并认为这些合同与更新后的AI准则相符。

尽管如此,内部的异议并未平息。超过100名谷歌AI员工近期向首席科学家Jeff Dean联名致信,要求公司禁止军方将Gemini用于国内监控或自主武器,凸显了企业商业目标与员工伦理坚守之间的巨大张力。

Anthropic的退出为谷歌和OpenAI创造了巨大的战略真空。面对美国军方的强硬立场,谷歌选择接受“全合法用途”这一总体框架,转而通过在具体合同文本中“提议”加入防止大规模监控和自主武器无监督滥用的条款来进行斡旋。分析人士指出,这种策略既满足了五角大楼对于技术自主控制的底线要求,又试图在表面上维护科技公司的伦理形象,反映了地缘政治竞争压力下企业边界的退让。

谷歌与美国国防部达成的协议表明,这家科技巨头正寻求巩固其作为下一代“国防-AI-工业复合体”核心供应商的地位。在这一进程中,传统的企业伦理边界不可避免地向国家地缘战略的绝对需求做出了妥协。

免责声明:本文观点仅代表作者个人观点,不构成本平台的投资建议,本平台不对文章信息准确性、完整性和及时性做出任何保证,亦不对因使用或信赖文章信息引发的任何损失承担责任。

精彩评论

我们需要你的真知灼见来填补这片空白
发表看法