特朗普总统唐纳德·特朗普周五下午下令所有联邦机构停止使用Anthropic的人工智能技术。当晚,五角大楼将该公司列为供应链风险,这一称号通常只授予涉嫌间谍活动的中国企业,这意味着任何与国防部合作的公司都必须证明其不使用Anthropic的工具。第二天,美国在伊朗使用Anthropic的工具进行目标定位和情报系统操作时,仍在中东司令部内部运行。特朗普已给予各机构六个月的时间逐步淘汰这项技术,含蓄地承认不能在一夜之间将AI从军事行动中剥离。政府与Anthropic之间的裂痕名义上是关于安全边界的问题。该公司表示拒绝让其工具用于自主武器或大规模监控,也不会在官员要求在任何合法场景中使用该技术时轻易妥协。Anthropic的CEO达里奥·阿莫迪(Dario Amodei)表示,公司不能良心上同意。特朗普回应称,Anthropic是“极左、觉醒的公司”,永远不会决定军队的作战方式。禁令发布数小时后,OpenAI宣布达成新协议,将其模型部署在机密的五角大楼环境中。OpenAI的CEO山姆·奥特曼(Sam Altman)透露了一个重要细节:协议中包括了与Anthropic所寻求的相同的禁止大规模监控和自主武器的条款。他在X(推特)上写道:“五角大楼同意这些原则,将其反映在法律和政策中,我们也将其纳入我们的协议。”因此,那个被列入黑名单的公司和获得奖励的公司似乎都达成了功能上类似的条款。差异很可能在于政治,或者更准确地说,是这届政府似乎要求私营部门表现出的一种服从感。OpenAI的总裁去年向一支支持特朗普的超级政治行动委员会(Super PAC)捐赠了2500万美元。Anthropic则聘用了拜登政府官员,并为AI监管进行游说。正如一位特朗普第一任期的前军事AI官员所说:Anthropic正在为不屈服付出代价。我们不知道的比我们知道的更糟-----------------------------如果不是在实际战争中展开,这场政治操控的意义可能会小得多。《华尔街日报》报道,Anthropic的AI“Claude”被嵌入在周六的伊朗行动中,用于情报评估、目标识别和战斗模拟。中央司令部拒绝就具体涉及的系统发表评论。随后出现了一个更难的问题。当一宗误击事件据报道导致150多名伊朗学生遇难时,外界立即质疑AI是否可能对错误产生了影响。坦率的答案是,除了五角大楼,没有人知道,五角大楼也没有透露。国防部长皮特·赫格斯(Pete Hegseth),他将其任期寄托在积极推动AI采用上,几乎没有动机披露真相。目标错误并不新鲜,但将生成式AI引入目标链则是新事物。这项技术仍会产生幻觉、误读图像,在低风险的商业环境中也会在推理上出错。在战争中部署它,错误的后果以生命计量,这是一个没有经过严格测试的飞跃。消费者的反弹使胜利变得复杂。Anthropic的Claude应用在App Store上冲到榜首。一场草根抵制运动呼吁用户放弃ChatGPT,反对OpenAI与五角大楼的合作。在X(推特)上,奥特曼面对一连串尖锐问题:如果OpenAI的合同允许所有合法用途,为什么还要禁止大规模监控和自主武器,这些没有明确的法律禁令?如果OpenAI获得了与Anthropic相同的红线,为什么五角大楼不能接受Anthropic的条款?这些矛盾超出了讨论的范围。这些公司在争夺付费用户、企业客户和工程人才方面展开激烈竞争。两者都未盈利,最近几周都在烧钱,筹集了数百亿美元以保持竞争。五角大楼的合同价值约2亿美元,虽然不是今年两家公司将获得的最大支票,但却突然成为两者业务的最大威胁。对Anthropic来说,供应链风险的认定远远超出五角大楼。任何与联邦政府合作的公司,包括Anthropic最大的支持者亚马逊($AMZN +0.39%)和谷歌($GOOGL +0.22%),都可能需要证明自己不使用Claude。这一问题可能在企业销售、云合作伙伴关系和投资决策中引发连锁反应,远超国防领域。对OpenAI而言,机密用途协议的考量只是在合同谈判中的一项内容。而当炸弹正在空投,关于安全边界、目标错误和遇难儿童的问题没有明确答案时,这就变得不同了。你认为你的聊天机器人在帮助选择轰炸目标,这并不是一个品牌问题,几句社交媒体上的回复无法解决。📬 订阅每日简报-------------------### 我们免费、快速、有趣的全球经济简报,每个工作日早晨送达。让我订阅
OpenAI、Anthropic 与人工智能战争的迷雾
特朗普总统唐纳德·特朗普周五下午下令所有联邦机构停止使用Anthropic的人工智能技术。当晚,五角大楼将该公司列为供应链风险,这一称号通常只授予涉嫌间谍活动的中国企业,这意味着任何与国防部合作的公司都必须证明其不使用Anthropic的工具。
第二天,美国在伊朗使用Anthropic的工具进行目标定位和情报系统操作时,仍在中东司令部内部运行。特朗普已给予各机构六个月的时间逐步淘汰这项技术,含蓄地承认不能在一夜之间将AI从军事行动中剥离。
政府与Anthropic之间的裂痕名义上是关于安全边界的问题。该公司表示拒绝让其工具用于自主武器或大规模监控,也不会在官员要求在任何合法场景中使用该技术时轻易妥协。Anthropic的CEO达里奥·阿莫迪(Dario Amodei)表示,公司不能良心上同意。特朗普回应称,Anthropic是“极左、觉醒的公司”,永远不会决定军队的作战方式。
禁令发布数小时后,OpenAI宣布达成新协议,将其模型部署在机密的五角大楼环境中。OpenAI的CEO山姆·奥特曼(Sam Altman)透露了一个重要细节:协议中包括了与Anthropic所寻求的相同的禁止大规模监控和自主武器的条款。他在X(推特)上写道:“五角大楼同意这些原则,将其反映在法律和政策中,我们也将其纳入我们的协议。”
因此,那个被列入黑名单的公司和获得奖励的公司似乎都达成了功能上类似的条款。差异很可能在于政治,或者更准确地说,是这届政府似乎要求私营部门表现出的一种服从感。OpenAI的总裁去年向一支支持特朗普的超级政治行动委员会(Super PAC)捐赠了2500万美元。Anthropic则聘用了拜登政府官员,并为AI监管进行游说。
正如一位特朗普第一任期的前军事AI官员所说:Anthropic正在为不屈服付出代价。
我们不知道的比我们知道的更糟
如果不是在实际战争中展开,这场政治操控的意义可能会小得多。《华尔街日报》报道,Anthropic的AI“Claude”被嵌入在周六的伊朗行动中,用于情报评估、目标识别和战斗模拟。中央司令部拒绝就具体涉及的系统发表评论。
随后出现了一个更难的问题。当一宗误击事件据报道导致150多名伊朗学生遇难时,外界立即质疑AI是否可能对错误产生了影响。坦率的答案是,除了五角大楼,没有人知道,五角大楼也没有透露。国防部长皮特·赫格斯(Pete Hegseth),他将其任期寄托在积极推动AI采用上,几乎没有动机披露真相。
目标错误并不新鲜,但将生成式AI引入目标链则是新事物。这项技术仍会产生幻觉、误读图像,在低风险的商业环境中也会在推理上出错。在战争中部署它,错误的后果以生命计量,这是一个没有经过严格测试的飞跃。
消费者的反弹使胜利变得复杂。Anthropic的Claude应用在App Store上冲到榜首。一场草根抵制运动呼吁用户放弃ChatGPT,反对OpenAI与五角大楼的合作。在X(推特)上,奥特曼面对一连串尖锐问题:如果OpenAI的合同允许所有合法用途,为什么还要禁止大规模监控和自主武器,这些没有明确的法律禁令?如果OpenAI获得了与Anthropic相同的红线,为什么五角大楼不能接受Anthropic的条款?这些矛盾超出了讨论的范围。
这些公司在争夺付费用户、企业客户和工程人才方面展开激烈竞争。两者都未盈利,最近几周都在烧钱,筹集了数百亿美元以保持竞争。五角大楼的合同价值约2亿美元,虽然不是今年两家公司将获得的最大支票,但却突然成为两者业务的最大威胁。
对Anthropic来说,供应链风险的认定远远超出五角大楼。任何与联邦政府合作的公司,包括Anthropic最大的支持者亚马逊($AMZN +0.39%)和谷歌($GOOGL +0.22%),都可能需要证明自己不使用Claude。这一问题可能在企业销售、云合作伙伴关系和投资决策中引发连锁反应,远超国防领域。
对OpenAI而言,机密用途协议的考量只是在合同谈判中的一项内容。而当炸弹正在空投,关于安全边界、目标错误和遇难儿童的问题没有明确答案时,这就变得不同了。你认为你的聊天机器人在帮助选择轰炸目标,这并不是一个品牌问题,几句社交媒体上的回复无法解决。
📬 订阅每日简报
我们免费、快速、有趣的全球经济简报,每个工作日早晨送达。
让我订阅