Beiträge

Die Skalierungswand war eine Illusion
/
0 Kommentare
Die Einführung von Gemini 3 zeigt, dass die Skalierung von KI-Modellen weiterhin möglich ist, während Nvidia die Nachfrage nach KI-Infrastruktur steigert.

Warum Cohere’s ehemalige AI-Forschungsleiterin gegen das Skalierungsrennen wettert
Die Diskussion über die Skalierung von großen Sprachmodellen (LLMs) hat an Intensität gewonnen. Sara Hooker, die ehemalige VP von AI Research bei Cohere, hat mit ihrem neuen Startup Adaption Labs einen alternativen Ansatz gewählt, der sich auf adaptive KI-Modelle konzentriert.

Die Illusion abnehmender Erträge: Messung der Langzeit-Ausführung in LLMs
In diesem Artikel untersuchen wir die Effizienz von großen Sprachmodellen (LLMs) bei der Ausführung längerer Aufgaben und die Herausforderungen, die mit der Skalierung dieser Modelle verbunden sind.

Scaling Laws für Mixture-of-Experts Modelle
In diesem Artikel untersuchen wir die Effizienz von Mixture-of-Experts Modellen und das Konzept der Efficiency Leverage, basierend auf einer aktuellen empirischen Studie.
