Beiträge

Artikelbild für den Artikel: Die Skalierungswand war eine Illusion

Die Skalierungswand war eine Illusion

/
Die Einführung von Gemini 3 zeigt, dass die Skalierung von KI-Modellen weiterhin möglich ist, während Nvidia die Nachfrage nach KI-Infrastruktur steigert.
Artikelbild für den Artikel: Warum Cohere's ehemalige AI-Forschungsleiterin gegen das Skalierungsrennen wettert

Warum Cohere’s ehemalige AI-Forschungsleiterin gegen das Skalierungsrennen wettert

/
Die Diskussion über die Skalierung von großen Sprachmodellen (LLMs) hat an Intensität gewonnen. Sara Hooker, die ehemalige VP von AI Research bei Cohere, hat mit ihrem neuen Startup Adaption Labs einen alternativen Ansatz gewählt, der sich auf adaptive KI-Modelle konzentriert.
Artikelbild für den Artikel: Die Illusion abnehmender Erträge: Messung der Langzeit-Ausführung in LLMs

Die Illusion abnehmender Erträge: Messung der Langzeit-Ausführung in LLMs

/
In diesem Artikel untersuchen wir die Effizienz von großen Sprachmodellen (LLMs) bei der Ausführung längerer Aufgaben und die Herausforderungen, die mit der Skalierung dieser Modelle verbunden sind.
Artikelbild für den Artikel: Scaling Laws für Mixture-of-Experts Modelle

Scaling Laws für Mixture-of-Experts Modelle

/
In diesem Artikel untersuchen wir die Effizienz von Mixture-of-Experts Modellen und das Konzept der Efficiency Leverage, basierend auf einer aktuellen empirischen Studie.