News zu KI & Grundlagen

Artikelbild für den Artikel: Midjourney startet sein erstes KI-Video-Generierungsmodell, V1

Midjourney startet sein erstes KI-Video-Generierungsmodell, V1

/
Midjourney hat sein erstes KI-Video-Generierungsmodell, V1, vorgestellt, das es Nutzern ermöglicht, aus Bildern kurze Videos zu erstellen. Das Modell ist derzeit nur über Discord verfügbar und bietet verschiedene Anpassungsoptionen.
Artikelbild für den Artikel: Tracing and Fixing Emergent Misalignment in Sprachmodellen

Tracing and Fixing Emergent Misalignment in Sprachmodellen

/
In diesem Artikel wird die Forschung von OpenAI zu emergenter Fehlanpassung in Sprachmodellen zusammengefasst und die Bedeutung für die KI-Sicherheit diskutiert.
Artikelbild für den Artikel: Gibt es eine Halbwertszeit für die Erfolgsquoten von KI-Agenten?

Gibt es eine Halbwertszeit für die Erfolgsquoten von KI-Agenten?

/
In diesem Artikel untersuchen wir die Hypothese, dass die Erfolgsquote von KI-Agenten mit der Dauer der Aufgaben exponentiell abnimmt und dass jeder Agent durch seine eigene Halbwertszeit charakterisiert werden kann.
Artikelbild für den Artikel: Verstehen und Implementieren des KV-Caches in LLMs

Verstehen und Implementieren des KV-Caches in LLMs

/
In diesem Artikel erfahren Sie, wie Key-Value Caches in LLMs funktionieren und wie Sie diese effizient implementieren können.
Artikelbild für den Artikel: OpenAI's praktischer Leitfaden zum Aufbau von Agenten

OpenAI’s praktischer Leitfaden zum Aufbau von Agenten

/
Der Leitfaden von OpenAI bietet einen strukturierten Ansatz zum Aufbau von Agenten, beginnend mit einzelnen Agenten und der Verwendung von Manager-Patterns zur Koordination.
Artikelbild für den Artikel: MiniMax veröffentlicht Open-Weight Reasoning Model M1

MiniMax veröffentlicht Open-Weight Reasoning Model M1

/
MiniMax hat sein neuestes Modell, MiniMax-M1, vorgestellt, das als das erste Open-Weight, groß angelegte Hybrid-Attention-Reasoning-Modell gilt. Mit 456 Milliarden Parametern nutzt das Modell eine hybride Mixture-of-Experts-Architektur, die in der Lage ist, Kontexte von bis zu 1 Million Tokens zu verarbeiten.
Artikelbild für den Artikel: CODE INTERPRETER REASONING: Ein neuer Ansatz zur Verbesserung mathematischer Fähigkeiten in KI-Modellen

CODE INTERPRETER REASONING: Ein neuer Ansatz zur Verbesserung mathematischer Fähigkeiten in KI-Modellen

/
CoRT ist ein neuartiges Post-Training-Framework, das entwickelt wurde, um Large Reasoning Models (LRMs) zu lehren, wie sie effektiv mit Code-Interpretern interagieren können. Durch strategisches Hint-Engineering wird es diesen Modellen ermöglicht, mathematische Probleme besser zu lösen.
Artikelbild für den Artikel: TREERL: LLM Reinforcement Learning mit On-Policy Tree Search

TREERL: LLM Reinforcement Learning mit On-Policy Tree Search

/
TreeRL nutzt On-Policy Tree Search und Zwischenaufsicht, um LLMs effizienter zu trainieren und die Notwendigkeit eines separaten Belohnungsmodells zu eliminieren.
Artikelbild für den Artikel: Groq tritt Hugging Face Inference bei

Groq tritt Hugging Face Inference bei

/
Groq ist jetzt als Inference Provider auf dem Hugging Face Hub verfügbar, was die Möglichkeiten für serverlose Inferenz erweitert und Entwicklern den Zugang zu einer Vielzahl von Modellen erleichtert.