テザーは新しいAIトレーニングフレームワークを発表しました。これにより、スマートフォンやNvidia以外のGPUなどのコンシューマーデバイス上で大規模言語モデルの微調整が可能になります。このシステムはQVACプラットフォームに属し、MicrosoftのBitNetアーキテクチャとLoRA技術を組み合わせて、メモリ要件と計算コストを大幅に削減します。
テザーによると、このフレームワークはクロスプラットフォームに対応し、AMD、Intel、Apple Silicon、QualcommのモバイルGPUと互換性があります。エンジニアはスマートフォン上で1億パラメータまでのモデルを2時間未満で微調整でき、さらに13億パラメータまでのモデルをモバイルデバイス上で拡張可能です。
BitNet技術は、16ビットモデルと比較して最大77.8%のVRAM削減を実現し、モバイルGPU上での推論速度も向上させます。テザーはまた、フェデレーテッドラーニングなどの応用可能性やクラウド依存の低減についても強調しています。
この動きは、暗号通貨企業がAIと計算インフラに拡大している傾向を反映しており、AIエージェントの発展と並行しています。