Thinking Machines bringt ein Interaktionsmodell mit 200-ms-Antwortrate an den Start und ist GPT-Realtime-2.0 überlegen

Laut Beating, Thinking Machines, dem Labor, das von der ehemaligen OpenAI-CTO Mira Murati gegründet wurde, hat eine Forschungs-Vorschau seines Interaction-Modells veröffentlicht, das native Echtzeit-Audio- und -Videoverarbeitung bietet, mit 200-Millisekunden-Micro-Turn-Antworten. Das Modell ermöglicht gleichzeitiges Zuhören, Ansehen und Sprechen und unterstützt dabei Echtzeit-Unterbrechungen durch Nutzer.

Das Modell TML-Interaction-Small nutzt eine MoE-Architektur mit 276 Milliarden Parametern, wobei pro Inferenz 12 Milliarden Parameter aktiviert werden. Offizielle Daten zeigen eine Speech-Turn-Taking-Latenz von 0,40 Sekunden sowie einen FD-bench V1.5-Score von 77,8, die beide GPT-Realtime-2.0 und Gemini 3.1 Flash Live übertreffen. Ein begrenzter Vorschauzugang ist für die kommenden Monate geplant.

Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.
Kommentieren
0/400
Keine Kommentare