Gate 广场创作者新春激励正式开启,发帖解锁 $60,000 豪华奖池
如何参与:
报名活动表单:https://www.gate.com/questionnaire/7315
使用广场任意发帖小工具,搭配文字发布内容即可
丰厚奖励一览:
发帖即可可瓜分 $25,000 奖池
10 位幸运用户:获得 1 GT + Gate 鸭舌帽
Top 发帖奖励:发帖与互动越多,排名越高,赢取 Gate 新年周边、Gate 双肩包等好礼
新手专属福利:首帖即得 $50 奖励,继续发帖还能瓜分 $10,000 新手奖池
活动时间:2026 年 1 月 8 日 16:00 – 1 月 26 日 24:00(UTC+8)
详情:https://www.gate.com/announcements/article/49112
微软推出在NVIDIA GPU上训练的多模态SLM
詹姆斯·丁
2025年2月26日15:38
微软推出新的Phi SLMs,包括在NVIDIA GPU上训练的多模式Phi-4,通过高效资源使用增强AI能力。
微软宣布了其Phi系列小语言模型(SLMs)的最新添加,包括使用NVIDIA GPU训练的新Phi-4-多模型和Phi-4-mini模型。这一发展标志着语言模型演变中的重要一步,侧重于效率和多功能性,据NVIDIA称。
小型语言模型的进展
SLM已成为对大型语言模型(LLMs)提出的挑战提出实际解决方案,尽管这些模型具有相当的能力,但它们需要大量的计算资源。SLM旨在在受限环境中高效运行,使其适用于具有有限内存和计算能力的设备上部署。
Microsoft的新Phi-4多模型在能够处理文本、音频和图像等多种数据类型方面特别引人注目。这种能力为自动语音识别、翻译和视觉推理等应用开辟了新的可能性。该模型的训练涉及了512个NVIDIA A100-80GB GPU,历时21天,突显了实现其能力所需的大量计算工作。
Phi-4多模块和Phi-4迷你
Phi-4-多模型拥有 56 亿个参数,并在自动语音识别方面表现出色,在 Huggingface OpenASR 排行榜上排名第一,字错误率为 6.14%。该成就突显了该模型在提升语音识别技术方面的潜力。
除了 Phi-4-multimodal 外,微软还推出了 Phi-4-mini,这是一款专为聊天应用优化的纯文本模型。Phi-4-mini 具有 38 亿个参数,旨在高效处理长篇内容,提供 128K token 的上下文窗口。其训练涉及 1024 个 NVIDIA A100 80GB GPU,在 14 天内完成,反映了该模型专注于高质量教育数据和代码。
部署和可访问性
两种模型都可以在Microsoft的Azure AI Foundry上获得,该平台可用于设计、定制和管理人工智能应用程序。用户还可以通过NVIDIA API目录探索这些模型,该目录提供了一个沙盒环境,用于测试和将这些模型集成到各种应用程序中。
英伟达与微软的合作不仅仅局限于训练这些模型。该合作伙伴关系还包括优化软件和像Phi这样的模型,以促进人工智能透明度并支持开源项目。该合作旨在推动人工智能技术在各行业的发展,从医疗保健到生命科学。
欲了解更详细信息,请访问NVIDIA博客。
图片来源:Shutterstock