Altman 表示:OpenAI 模型将逐步迁移到亚马逊定制的 Trainium 芯片,他表示“期待”

Gate 新闻消息,4月29日——根据 OpenAI 首席执行官 Sam Altman 以及 AWS 高管的近期表态,运行在亚马逊网络服务(AWS)Bedrock 上的 OpenAI 模型将逐步迁移到 Trainium。Trainium 是亚马逊专为 AI 定制的芯片。当前,模型在使用 GPU 和 Trainium 的混合环境中运行,且随着时间推移,向 Trainium 的占比会逐步增加。Altman 表示,公司“期待将模型迁移到 Trainium”。

AWS 高管 Garman 承认,Trainium 这个名称可能会带来误导,因为该芯片既用于训练也用于推理,且预计未来推理将成为主要使用场景。不过,Garman 强调,芯片的品牌对大多数客户而言基本无关紧要;用户通过 OpenAI 的 API 接口与之交互,而不是直接接触底层硬件。当被问及未来是否会将非 OpenAI 模型集成到 Bedrock Managed Agents 时,Garman 拒绝提供具体细节,并仅表示 AWS 目前正聚焦于其与 OpenAI 的合作。

此次合作彰显了 AWS 的战略:借助其自研芯片,在云平台上支持主要的 AI 工作负载。

免责声明:本页面信息可能来自第三方,不代表 Gate 的观点或意见。页面显示的内容仅供参考,不构成任何财务、投资或法律建议。Gate 对信息的准确性、完整性不作保证,对因使用本信息而产生的任何损失不承担责任。虚拟资产投资属高风险行为,价格波动剧烈,您可能损失全部投资本金。请充分了解相关风险,并根据自身财务状况和风险承受能力谨慎决策。具体内容详见声明

相关文章

Cognition将新加坡设为亚太总部,瞄准区域扩张

Gate 新闻消息,4月29日——Cognition,这家由Devin背后的AI编程初创公司宣布,在4月29日表示将把新加坡设为其亚太总部,以监督覆盖东南亚、澳大利亚、印度和韩国的区域扩张。 Richard Spence将负责亚太地区(APAC)的运营

GateNews12 分钟前

Google 与五角大厦签署机密 AI 协议,员工公开信反对

根据 The Information 于 4 月 28 日报道,Google 已签署协议,将向美国五角大厦提供用于机密工作的人工智能(AI)模型。《纽约时报》引述知情人士称,该协议允许美国国防部将 Google 的 AI 用于合法政府用途,性质与五角大厦上月与 OpenAI 及 xAI 签署机密 AI 部署协议相同。

Market Whisper32 分钟前

a16z 加密货币研究报告:AI 代理 DeFi 漏洞利用率达 70%

根据 a16z Crypto 于 4 月 29 日发布的研究报告,在具备结构化领域知识的条件下,AI 代理重现以太坊价格操纵漏洞的成功率达到 70%;在无任何领域知识的沙盒环境中,成功率仅为 10%。报告同时记录了 AI 代理独立绕过沙盒限制以访问未来交易信息的案例,以及代理在构建多步骤可盈利攻击方案时的系统性失败模式。

Market Whisper56 分钟前

Altman:随着 GPT-5.5 转向任务完成而非代币数量,按代币定价将走向过时

Gate 新闻消息,4月29日——OpenAI 首席执行官 Sam Altman 在接受 Stratechery 的 Ben Thompson 采访时表示,按代币定价并不是 AI 服务的长期可行模式。以 GPT-5.5 为例,Altman 指出,尽管单代币价格相较 GPT-5.4 显著更高,但该模型使用的代币数量要少得多来完成同一任务,这意味着客户并不在意代币数量——他们只关心任务是否完成以及总成本。

GateNews1小时前

蚂蚁集团 Ling-2.6-flash 模型开源:1040B 参数、7.4B 有效参数,达成多项 SOTA 基准

Gate 新闻简报,4月29日——蚂蚁集团的 Ling-2.6-flash 模型权重现已开源;此前这些权重仅通过 API 提供。该模型总参数量为 1040 亿,单次推理激活为 74 亿,拥有 256K 上下文窗口,并采用 MIT 许可。提供 BF16、FP8 和 INT4 精度版本,现已在 HuggingFace 与 ModelScope 上提供。 Ling-2.6-flash 相较 Ling 2.0 引入了混合线性注意力改进:将原始的 GQA 升级为 1:7 MLA,并结合 Lightning Linear 的混合架构,同时配合高度稀疏的 MoE。推理效率显著超过同类模型:在 4x H20 GPU 上,峰值生成速度达到 340 tokens/s;在可比的开源模型上,prefill 与 decode 的吞吐量约高出 4 倍。与智能体相关的基准测试显示出强劲表现:BFCL-V4、TAU2-bench、SWE-bench Verified 61.2%、Claw-Eval 以及 PinchBench 达到或接近 SOTA 水平。在完整的 Artificial Analysis 基准测试套件中,总 token 消耗仅为 1500 万。在 AIME 2026 上,该模型得分为 73.85%。 蚂蚁集团的官方网站同样列出了 Ling-2.6-1T 万亿参数旗舰版本 以及 Ling-2.6-mini 轻量版本 ;不过截至发布,权重仍未在 HuggingFace 上发布,当前仅提供 flash 系列下载。

GateNews2小时前

Sam Altman 发布 Codex 双模式截图,办公与编程功能正式分流

OpenAI 执行长 Sam Altman 于 4 月 29 日在 X 平台发布的截图及声明,Codex 正在推出新版引导界面,用户首次进入时须从两种模式中选择,分别为 Excelmogging 和 Codemaxxing。Codex 目前的周活跃用户已超过 400 万,使用场景已从代码生成延伸至非技术用途。

Market Whisper2小时前
评论
0/400
暂无评论