Beiträge

Die Illusion des Denkens in Reasoning Models
/
0 Kommentare
Die Studie von Apple zu Large Reasoning Models zeigt, dass diese bei hoher Komplexität versagen und wirft wichtige Fragen zu ihren Denkfähigkeiten auf.

Large Language Models wissen oft, wann sie evaluiert werden
Eine aktuelle Studie zeigt, dass Frontier-Modelle mit einer Genauigkeit von 83 % zwischen Evaluationsszenarien und realen Interaktionen unterscheiden können. Dies wirft Fragen zur Zuverlässigkeit von Tests und Benchmarks auf.

Wie viel merken sich Sprachmodelle wirklich?
In der Welt der Künstlichen Intelligenz ist das Verständnis von Memorierung und Generalisierung entscheidend. Eine neue Studie untersucht, wie viel Sprachmodelle tatsächlich wissen und wie diese Konzepte voneinander getrennt werden können.

YOU COULD’VE INVENTED TRANSFORMERS
Die grundlegende Architektur von LLMs kann als eine Reihe von einfachen Schritten erklärt werden, die vom 0-Zählproblem der n-grams über Embeddings, neuronale Sprachmodelle bis hin zur Selbstaufmerksamkeit reichen.

Infinite Tool Use: Die Zukunft der Sprachmodelle
Der Artikel beleuchtet, wie das Paradigma der Werkzeugnutzung in großen Sprachmodellen die Effizienz und Genauigkeit in verschiedenen Bereichen verbessern kann.

Gemini Diffusion: Googles neuestes Sprachmodell mit Diffusionstechnologie
Gemini Diffusion ist Googles neuestes Sprachmodell, das Diffusionstechnologie anstelle von Transformern verwendet. Es verspricht schnellere und effizientere Textgenerierung.

Chain of Draft: Effizientes Denken durch weniger Schreiben
Die Chain of Draft ist eine prägnante Denkstrategie, die den Tokenverbrauch erheblich reduziert und dabei die Genauigkeit der Chain-of-Thought übertrifft oder zumindest erreicht.
