Unabhängige Benchmarks der gpt-oss Modelle von OpenAI
Dieser Beitrag untersucht die neuesten Veröffentlichungen von OpenAI, insbesondere die gpt-oss Modelle, die in der KI-Community für Aufsehen sorgen. Mit der Veröffentlichung von gpt-oss-120b und gpt-oss-20b hat OpenAI zwei neue Modelle vorgestellt, die sowohl in ihrer Architektur als auch in ihrer Leistung bemerkenswerte Fortschritte zeigen.
Einführung in die gpt-oss Modelle
Die gpt-oss Modelle sind Teil von OpenAIs Bemühungen, leistungsstarke KI-Modelle mit offenen Gewichten zu entwickeln. Diese Modelle sind nicht nur für ihre hohe Intelligenz bekannt, sondern auch für ihre Effizienz und Benutzerfreundlichkeit. In diesem Artikel werden wir die wichtigsten Merkmale der gpt-oss Modelle, ihre Architektur, Leistung und Preisgestaltung analysieren und sie mit anderen führenden KI-Modellen vergleichen.
Die gpt-oss Modelle im Detail
gpt-oss-120b
Das gpt-oss-120b Modell hat insgesamt 116,8 Milliarden Parameter, von denen 5,1 Milliarden aktiv sind. Es erzielt einen IntelligenceIndex Score von 58 und gilt als das intelligenteste Modell, das auf einem einzelnen NVIDIA H100 betrieben werden kann. Mit einer Größe von nur 60,8 GB ist es möglich, dieses Modell in seiner nativen Präzision zu betreiben.
gpt-oss-20b
Das gpt-oss-20b Modell hat 20,9 Milliarden Parameter und 3,6 Milliarden aktive Parameter. Es erreicht einen IntelligenceIndex Score von 48 und kann problemlos auf einem Consumer-GPU oder Laptop mit mehr als 16 GB RAM betrieben werden. Mit einer Größe von 12,8 GB ist es eine kostengünstige Lösung für Entwickler.
Architektur der gpt-oss Modelle
Beide Modelle verwenden eine MoE (Mixture of Experts) Architektur, die es ermöglicht, die besten Experten für die Token-Generierung auszuwählen. Das gpt-oss-120b Modell hat 36 Schichten, während das gpt-oss-20b Modell 24 Schichten aufweist. Jede Schicht hat 64 Abfrageköpfe und verwendet gruppierte Abfrageaufmerksamkeit mit 8 KV-Köpfen. Die Verwendung von rotierenden Einbettungen und YaRN ermöglicht es, das Kontextfenster auf 128k zu erweitern.
Leistung und Effizienz
Beide gpt-oss Modelle zeigen eine hohe Effizienz in Bezug auf Token-Nutzung. Das gpt-oss-120b Modell benötigte nur 21 Millionen Tokens, um die Intelligence Index Benchmarks von Artificial Analysis zu durchlaufen. Dies ist ein Viertel der Tokens, die das o4-mini Modell benötigte, und die Hälfte der Tokens, die das o3 Modell benötigte.
Preisgestaltung der gpt-oss Modelle
Die Preisgestaltung für die gpt-oss Modelle ist ebenfalls attraktiv. Der mediane Preis für API-Anbieter liegt bei 0,15 USD pro Million Eingabe- und 0,69 USD pro Million Ausgabetokens für das 120B Modell und 0,08 USD pro Million Eingabe- und 0,35 USD pro Million Ausgabetokens für das 20B Modell. Dies macht die gpt-oss Modelle zu einer kostengünstigen Alternative zu den proprietären APIs von OpenAI.
Vergleich mit anderen KI-Modellen
Im Vergleich zu anderen offenen Modellen wie DeepSeek R1 und Qwen3 zeigt das gpt-oss-120b Modell eine geringere Gesamt- und aktive Parameteranzahl, bietet jedoch eine vergleichbare Intelligenz. DeepSeek R1 hat 671 Milliarden Parameter, was es erheblich größer macht, während das gpt-oss-120b Modell eine bessere Effizienz bietet.
Fazit
Die gpt-oss Modelle von OpenAI stellen einen bedeutenden Fortschritt in der Entwicklung leistungsstarker KI-Modelle dar. Mit ihrer hohen Effizienz, Benutzerfreundlichkeit und attraktiven Preisgestaltung sind sie eine hervorragende Wahl für Entwickler und Unternehmen, die in der KI-Technologie tätig sind. Die kontinuierliche Verbesserung und Anpassung dieser Modelle wird entscheidend sein, um im wettbewerbsintensiven KI-Markt relevant zu bleiben.
Quellenliste:
- Quelle: Independent benchmarks of OpenAI’s gpt-oss models
- Vergleich von KI-Modellen
- OpenAI Forschungsseite
Hinterlasse einen Kommentar
An der Diskussion beteiligen?Hinterlasse uns deinen Kommentar!