Kleine Sprachmodelle (SLMs) werden als das nächste große Ding in der KI angepriesen

Cryptopolitan

Während Unternehmen Geld in große Sprachmodelle (LLMs) stecken, glauben einige Branchenexperten im KI-Sektor, dass kleine Sprachmodelle (SLMs) das nächste große Ding werden.

Dies geschieht, da die Aktivität in der Branche weiterhin wächst, da die Festtagszeit naht und Technologieunternehmen mehr Finanzierung investieren, um ihre Technologie zu entwickeln.

Die Zukunft liegt in kleinen Sprachmodellen

Unter anderem konnte xAI, geleitet vom Multi-Milliardär Elon Musk, zusätzliche 5 Milliarden US-Dollar von Andreessen Horowitz, Qatar Investment Authority, Sequoia und Valor Equity Partners sammeln, während Amazon zusätzlich 4 Milliarden US-Dollar in Anthropic, einem Rivalen von OpenAI, investierte.

Während diese großen Tech-Unternehmen und andere Milliarden von Dollar investieren, um sich auf die Entwicklung großer LLMs zu konzentrieren, die viele verschiedene Aufgaben bewältigen können, ist die Realität der KI, dass es keine Einheitsgröße gibt, da es spezielle Modelle für geschäftsspezifische Aufgaben gibt.

Laut dem CEO von AWS, Matt Garman, in einer Pressemitteilung über ihre erweiterte Partnerschaft und Investitionen gibt es bereits eine überwältigende Reaktion von AWS-Kunden, die generative KI entwickeln, die von Anthropic unterstützt wird.

LLMs sind für die meisten Unternehmen immer noch die erste Wahl für bestimmte Projekte, aber für andere kann diese Wahl teuer in Kosten, Energie und Rechenressourcen sein.

Steven McMillan, Präsident und CEO von Teradata, der auch für einige Unternehmen einen alternativen Weg angeboten hat, hat auch andere Ansichten. Er ist optimistisch, dass die Zukunft in SLMs liegt.

„Wenn wir in die Zukunft blicken, glauben wir, dass kleine und mittlere Sprachmodelle und kontrollierte Umgebungen wie domänenspezifische LLMs wesentlich bessere Lösungen bieten werden.“

~ McMillan

SLMs produzieren maßgeschneiderte Ausgaben für bestimmte Arten von Daten, da die Sprachmodelle speziell darauf trainiert sind. Da die von SLMs generierten Daten intern gehalten werden, werden die Sprachmodelle daher auf potenziell sensible Daten trainiert.

Bei LLMs, die energieaufwendig sind, werden die kleinen Sprachversionen darauf trainiert, sowohl Rechenleistung als auch Energieverbrauch an die tatsächlichen Anforderungen des Projekts anzupassen. Mit solchen Anpassungen bedeutet dies, dass die SLMs effizienter und kostengünstiger als die aktuellen großen Modelle sind.

Für Benutzer, die KI für spezifisches Wissen verwenden möchten, gibt es die Möglichkeit von domänenspezifischen LLMs, da sie kein breites Wissen bieten. Es ist darauf trainiert, nur eine Kategorie von Informationen tiefgehend zu verstehen und beispielsweise in diesem Bereich genauer zu reagieren, z. B. ein CMO gegenüber einem CFO.

Warum SLMs eine bevorzugte Option sind

Laut der Association of Data Scientists (ADaSci) würde die vollständige Entwicklung eines SLM mit 7 Milliarden Parametern für eine Million Benutzer nur 55,1 MWh (Megawattstunden) erfordern.

ADaSci stellte fest, dass das Training von GPT-3 mit 175 Milliarden Parametern geschätzte 1.287 MWh Strom verbrauchte und die Leistung nicht einschließt, wenn es offiziell von der Öffentlichkeit genutzt wird. Daher verbraucht ein SLM etwa 5% der Energie, die beim Training eines LLM verbraucht wird.

Große Modelle werden in der Regel auf Cloud-Computern ausgeführt, da sie mehr Rechenleistung benötigen, als auf einem einzelnen Gerät jemals verfügbar ist. Dies führt zu Komplikationen für Unternehmen, da sie die Kontrolle über ihre Informationen verlieren, wenn sie in die Cloud übertragen werden, und zu langsamen Reaktionen, wenn sie über das Internet reisen.

Bei der Einführung von KI in die Zukunft werden Unternehmen nicht alle nach demselben Muster vorgehen, da Effizienz und die Auswahl des besten und kostengünstigsten Tools zur Erledigung von Aufgaben im Mittelpunkt stehen werden, was bedeutet, dass die Auswahl des richtigen Modells für jedes Projekt im Fokus steht.

Dies wird für alle Modelle durchgeführt, sei es ein allgemeiner LLM oder kleinere und domänenspezifische LLMs, je nachdem, welches Modell bessere Ergebnisse liefert, weniger Ressourcen erfordert und den Bedarf an Datenmigration in die Cloud reduziert.

Für die nächste Phase wird KI für Geschäftsentscheidungen unerlässlich sein, da die Öffentlichkeit großes Vertrauen in KI-generierte Antworten hat.

Wenn Sie daran denken, KI-Modelle zu trainieren, müssen sie auf dem Fundament großartiger Daten aufgebaut sein.

~ McMillan

“Darum geht es bei uns: Wir stellen den vertrauenswürdigen Datensatz zur Verfügung und bieten dann die Fähigkeiten und Analysemöglichkeiten, sodass Kunden und ihre Kunden den Ergebnissen vertrauen können”, fügte McMillan hinzu.

Mit Effizienz und Genauigkeit, die in der Welt gefragt sind, bieten kleinere und domänenspezifische LLMs eine weitere Möglichkeit, Ergebnisse zu liefern, auf die Unternehmen und die breite Öffentlichkeit vertrauen können.

Ein Schritt-für-Schritt-Leitfaden für den Einstieg in Ihre Web3-Karriere und das Finden von hochbezahlten Krypto-Jobs in 90 Tagen.

Original anzeigen
Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.
Kommentieren
0/400
Keine Kommentare
Handeln Sie jederzeit und überall mit Kryptowährungen
qrCode
Scannen, um die Gate App herunterzuladen
Community
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)