Beiträge

Neue Erkenntnisse zu Skalierungsgesetzen im autonomen Fahren
/
0 Kommentare
Die Studie von Waymo zeigt, dass eine Erhöhung der Daten- und Rechenressourcen die Leistung autonomer Fahrzeuge verbessern kann, was neue adaptive Trainingsstrategien ermöglicht.

OpenAI’s Open Model ist verzögert
OpenAI hat die Veröffentlichung seines ersten offenen Modells seit Jahren auf später im Sommer verschoben. CEO Sam Altman kündigte an, dass das Modell irgendwann nach Juni veröffentlicht wird, da das Forschungsteam unerwartete Fortschritte gemacht hat.

Large Language Models wissen oft, wann sie evaluiert werden
Eine aktuelle Studie zeigt, dass Frontier-Modelle mit einer Genauigkeit von 83 % zwischen Evaluationsszenarien und realen Interaktionen unterscheiden können. Dies wirft Fragen zur Zuverlässigkeit von Tests und Benchmarks auf.

JigsawStack launcht Open-Source Deep Research Tool
JigsawStack hat ein neues Open-Source-Framework namens Deep Research vorgestellt, das die Durchführung tiefgehender Recherchen revolutioniert. Es kombiniert LLMs, Web-Suchen und strukturiertes Denken, um umfassende Berichte zu erstellen.

Vorhersage und Erklärung der Leistung von KI-Modellen: Ein neuer Ansatz zur Bewertung
Microsoft-Forscher haben ADeLe entwickelt, ein Framework zur Vorhersage und Erklärung der Leistung von KI-Modellen bei neuen Aufgaben, das auf 18 kognitiven und wissensbasierten Skalen basiert.

Warum variieren die Zeitlinien für AGI so stark?
Die Prognosen zur Entwicklung von AGI variieren stark: Während einige CEOs von 2-5 Jahren sprechen, sehen Experten Jahrzehnte oder halten AGI für unmöglich.

Wie viel merken sich Sprachmodelle wirklich?
In der Welt der Künstlichen Intelligenz ist das Verständnis von Memorierung und Generalisierung entscheidend. Eine neue Studie untersucht, wie viel Sprachmodelle tatsächlich wissen und wie diese Konzepte voneinander getrennt werden können.

Anthropic Open-Sources Circuit Tracing Tools für AI Interpretability
Anthropic hat neue Tools zur Nachverfolgung von Entscheidungsprozessen in großen Sprachmodellen open-sourcet, um die Interpretierbarkeit von KI zu verbessern.

Die Sichtweise auf KI-Forschung als „Max-Performance-Domain“
Eine kürzliche Erkenntnis in der KI-Forschung ist, dass man in einer „max-performance domain“ exzellent sein kann, indem man sich auf einen engen Fokus konzentriert und in anderen Bereichen inkompetent ist.
