微軟推出在NVIDIA GPU上訓練的多模態SLM

CryptosHeadlines

詹姆斯·丁

2025年2月26日15:38

微軟推出新的Phi SLMs,包括在NVIDIA GPU上訓練的多模式Phi-4,通過高效資源使用增強AI能力。

Microsoft 介紹在 NVIDIA GPU 上訓練的多模態 SLM

微軟宣佈了其Phi系列小語言模型(SLMs)的最新添加,包括使用NVIDIA GPU訓練的新Phi-4-多模型和Phi-4-mini模型。這一發展標誌著語言模型演變中的重要一步,側重於效率和多功能性,據NVIDIA稱。

小型語言模型的進展

SLM已成為對大型語言模型(LLMs)提出的挑戰提出實際解決方案,儘管這些模型具有相當的能力,但它們需要大量的計算資源。SLM旨在在受限環境中高效運行,使其適用於具有有限內存和計算能力的設備上部署。

Microsoft的新Phi-4多模型在能夠處理文本、音頻和圖像等多種數據類型方面特別引人注目。這種能力為自動語音識別、翻譯和視覺推理等應用開闢了新的可能性。該模型的訓練涉及了512個NVIDIA A100-80GB GPU,歷時21天,突顯了實現其能力所需的大量計算工作。

Phi-4多模塊和Phi-4迷你

Phi-4-多模型擁有 56 億個參數,並在自動語音識別方面表現出色,在 Huggingface OpenASR 排行榜上排名第一,字錯誤率為 6.14%。該成就突顯了該模型在提升語音識別技術方面的潛力。

除了 Phi-4-multimodal 外,微軟還推出了 Phi-4-mini,這是一款專為聊天應用優化的純文本模型。Phi-4-mini 具有 38 億個參數,旨在高效處理長篇內容,提供 128K token 的上下文窗口。其訓練涉及 1024 個 NVIDIA A100 80GB GPU,在 14 天內完成,反映了該模型專注於高質量教育數據和代碼。

部署和可訪問性

兩種模型都可以在Microsoft的Azure AI Foundry上獲得,該平臺可用於設計、定製和管理人工智能應用程序。用戶還可以通過NVIDIA API目錄探索這些模型,該目錄提供了一個沙盒環境,用於測試和將這些模型集成到各種應用程序中。

英偉達與微軟的合作不僅僅侷限於訓練這些模型。該合作伙伴關係還包括優化軟件和像Phi這樣的模型,以促進人工智能透明度並支持開源項目。該合作旨在推動人工智能技術在各行業的發展,從醫療保健到生命科學。

欲瞭解更詳細信息,請訪問NVIDIA博客。

圖片來源:Shutterstock

免責聲明:本頁面資訊可能來自第三方,不代表 Gate 的觀點或意見。頁面顯示的內容僅供參考,不構成任何財務、投資或法律建議。Gate 對資訊的準確性、完整性不作保證,對因使用本資訊而產生的任何損失不承擔責任。虛擬資產投資屬高風險行為,價格波動劇烈,您可能損失全部投資本金。請充分了解相關風險,並根據自身財務狀況和風險承受能力謹慎決策。具體內容詳見聲明
留言
0/400
暫無留言