Cerebras übertrifft NVIDIA: Ein neuer Rekord in der KI-Inferenzgeschwindigkeit
Cerebras hat kürzlich bekannt gegeben, dass ihre Systeme die NVIDIA DGX B200 übertreffen, indem sie eine Ausgabe-Token-Geschwindigkeit von über 2.500 Tokens pro Sekunde erreichen. Dies stellt einen neuen Weltrekord für die LLMinferenzgeschwindigkeit auf dem 400B-Parameter Llama 4 Maverick Modell dar.
Der Wettkampf zwischen Cerebras und NVIDIA
Die Hardwarefirma Cerebras hat am Mittwoch angekündigt, dass ihre Systeme die Leistung von NVIDIA’s DGX B200 mit 8 Blackwell GPUs übertreffen. Cerebras erreichte eine Ausgabe-Token-Geschwindigkeit von über 2.500 Tokens pro Sekunde, während NVIDIA nur 1.000 Tokens pro Sekunde demonstrierte. In einem Beitrag auf X (ehemals Twitter) erklärte Cerebras:
„Nur Cerebras steht – und wir haben Blackwell geschlagen.“
Technologische Überlegenheit der Cerebras-Systeme
Das Unternehmen hat betont, dass ihre Wafer-Scale Engine (WSE) Technologie eine schnellere Inferenzgeschwindigkeit als traditionelle GPUs bietet. „Wir haben Dutzende von Anbietern getestet, und Cerebras ist die einzige Inferenzlösung, die Blackwell für Metas Flaggschiffmodell übertrifft“, so das Unternehmen weiter.
Im vergangenen Monat kündigte Meta eine Partnerschaft mit Cerebras an, um Entwicklern Zugriff auf Inferenzgeschwindigkeiten zu ermöglichen, die bis zu 18-mal schneller sind als GPU-basierte Lösungen. Während GPUs weit verbreitet für das Training von KI-Modellen sind, die große Datenmengen und Rechenleistung erfordern, werden dedizierte Lösungen für die Inferenz in großem Maßstab entwickelt.
Die Konkurrenz im Bereich der KI-Inferenz
Zusätzlich zu Cerebras arbeiten auch Unternehmen wie Groq und SambaNova an ähnlichen Lösungen. SambaNova bietet den SN40L benutzerdefinierten KI-Chip an, der die Reconfigurable Dataflow Unit-Architektur nutzt. Dieser Chip wird im 5-nm-Prozess von TSMC hergestellt und kombiniert DRAM, HBM3 und SRAM auf jedem Chip. Groq hingegen bietet KI-Inferenzprozessoren an, die als LPUs (Language Processing Units) bekannt sind. Diese LPUs speichern alle Modellparameter direkt auf ihren Chips, anstatt auf externen Speicher wie GPUs angewiesen zu sein.
Fazit
Die jüngsten Entwicklungen zeigen, dass Cerebras mit ihren innovativen Technologien einen bedeutenden Fortschritt in der KI-Inferenz erzielt hat. Die Überlegenheit in der Geschwindigkeit könnte weitreichende Auswirkungen auf die Entwicklung und Implementierung von KI-Anwendungen haben. Die Konkurrenz im Bereich der KI-Hardware bleibt jedoch intensiv, und es bleibt abzuwarten, wie sich die Marktlandschaft weiter entwickeln wird.
Quellenliste:
- Quelle: WE SMOKED NVIDIA’S BLACKWELL, SAYS CEREBRAS
- Cerebras Press Release on Maverick
- SambaNova vs. Cerebras vs. Groq
Hinterlasse einen Kommentar
An der Diskussion beteiligen?Hinterlasse uns deinen Kommentar!