マイクロソフトはNVIDIA GPUでトレーニングされたマルチモーダルSLMを導入

CryptosHeadlines

ジェームズ・ディング

2025年02月26日 15:38

Microsoftは、NVIDIA GPUでトレーニングされたマルチモーダルPhi-4を含む新しいPhi SLMを発表し、効率的なリソース使用でAI機能を強化します。

Microsoft が NVIDIA GPU でトレーニングされたマルチモーダル SLM を発表

マイクロソフトは、新しいPhi-4-マルチモーダルおよびPhi-4-ミニモデルを特徴とする、NVIDIA GPUを使用してトレーニングされた小さな言語モデルファミリー(SLMs)の最新の追加を発表しました。この開発は、効率と汎用性に焦点を当てた言語モデルの進化における重要な一歩を示しています。

小規模言語モデルの進歩

SLMは、その機能にもかかわらず、かなりの計算リソースを必要とする大規模言語モデル(LLMs)がもたらす課題に対する実用的なソリューションとして登場しました。SLMは、制約のある環境内で効率的に動作するように設計されているため、メモリと計算能力が限られているデバイスへの展開に適しています。

Microsoft の新しい Phi-4 マルチモーダル モデルは、テキスト、音声、画像など、複数の種類のデータを処理できることで特に注目に値します。この機能により、自動音声認識、翻訳、視覚的推論などのアプリケーションの新しい可能性が開かれます。このモデルのトレーニングには、21 日間で 512 個の NVIDIA A100-80GB GPU が使用され、その機能を実現するために必要な集中的な計算作業が強調されました。

Phi-4-マルチモーダルとPhi-4ミニ

Phi-4-multimodalモデルは56億のパラメータを誇り、自動音声認識で優れたパフォーマンスを発揮し、Huggingface OpenASRリーダーボードで単語エラー率6.14%で1位にランクインしました。この成果は、モデルの音声認識技術の向上における潜在能力を示しています。

Phi-4-multimodalと並行して、MicrosoftはPhi-4-miniも導入しました。これは、チャットアプリケーション向けに最適化されたテキスト専用モデルで、38億のパラメータを持ち、128Kトークンのコンテキストウィンドウを提供するよう設計されています。そのトレーニングには、1024のNVIDIA A100 80GB GPUを14日間にわたって使用し、高品質の教育データとコードに焦点を当てたモデルであることを反映しています。

デプロイメントとアクセシビリティ

両モデルは、MicrosoftのAzure AIファウンドリーで利用可能であり、AIアプリケーションを設計、カスタマイズ、管理するプラットフォームを提供しています。ユーザーはまた、NVIDIA APIカタログを介してこれらのモデルを探索することができ、これによりさまざまなアプリケーションにこれらのモデルをテストおよび統合するためのサンドボックス環境が提供されます。

NVIDIA と Microsoft のコラボレーションは、これらのモデルのトレーニングにとどまりません。このパートナーシップには、AIの透明性を促進し、オープンソースプロジェクトをサポートするためのPhiなどのソフトウェアとモデルの最適化が含まれます。このコラボレーションは、ヘルスケアからライフサイエンスまで、業界全体でAIテクノロジーを進化させることを目的としています。

詳細な情報については、NVIDIAブログをご覧ください。

画像出典:Shutterstock

原文表示
免責事項:このページの情報は第三者から提供される場合があり、Gateの見解または意見を代表するものではありません。このページに表示される内容は参考情報のみであり、いかなる金融、投資、または法律上の助言を構成するものではありません。Gateは情報の正確性または完全性を保証せず、当該情報の利用に起因するいかなる損失についても責任を負いません。仮想資産への投資は高いリスクを伴い、大きな価格変動の影響を受けます。投資元本の全額を失う可能性があります。関連するリスクを十分に理解したうえで、ご自身の財務状況およびリスク許容度に基づき慎重に判断してください。詳細は免責事項をご参照ください。
コメント
0/400
コメントなし