News zu KI & Grundlagen

Artikelbild für den Artikel: Gibt es eine Halbwertszeit für die Erfolgsquoten von KI-Agenten?

Gibt es eine Halbwertszeit für die Erfolgsquoten von KI-Agenten?

/
In diesem Artikel untersuchen wir die Hypothese, dass die Erfolgsquote von KI-Agenten mit der Dauer der Aufgaben exponentiell abnimmt und dass jeder Agent durch seine eigene Halbwertszeit charakterisiert werden kann.
Artikelbild für den Artikel: Text-to-LoRA: Instant Transformer Adaption

Text-to-LoRA: Instant Transformer Adaption

/
Forscher von Sakana AI haben mit Text-to-LoRA ein System entwickelt, das große Sprachmodelle sofort anpassen kann, basierend auf einer textuellen Beschreibung der Zielaufgabe.
Artikelbild für den Artikel: Kimi-Dev-72B: Ein neuer Maßstab für Open-Source Coding LLMs

Kimi-Dev-72B: Ein neuer Maßstab für Open-Source Coding LLMs

/
Moonshot AI hat mit Kimi-Dev-72B ein neues Open-Source-Modell für Softwareentwicklungsaufgaben vorgestellt, das eine bemerkenswerte Leistung von 60,4 % auf dem SWE-bench Verified erzielt hat.
Artikelbild für den Artikel: Verstehen und Implementieren des KV-Caches in LLMs

Verstehen und Implementieren des KV-Caches in LLMs

/
In diesem Artikel erfahren Sie, wie Key-Value Caches in LLMs funktionieren und wie Sie diese effizient implementieren können.
Artikelbild für den Artikel: OpenAI's praktischer Leitfaden zum Aufbau von Agenten

OpenAI’s praktischer Leitfaden zum Aufbau von Agenten

/
Der Leitfaden von OpenAI bietet einen strukturierten Ansatz zum Aufbau von Agenten, beginnend mit einzelnen Agenten und der Verwendung von Manager-Patterns zur Koordination.
Artikelbild für den Artikel: MiniMax veröffentlicht Open-Weight Reasoning Model M1

MiniMax veröffentlicht Open-Weight Reasoning Model M1

/
MiniMax hat sein neuestes Modell, MiniMax-M1, vorgestellt, das als das erste Open-Weight, groß angelegte Hybrid-Attention-Reasoning-Modell gilt. Mit 456 Milliarden Parametern nutzt das Modell eine hybride Mixture-of-Experts-Architektur, die in der Lage ist, Kontexte von bis zu 1 Million Tokens zu verarbeiten.
Artikelbild für den Artikel: CODE INTERPRETER REASONING: Ein neuer Ansatz zur Verbesserung mathematischer Fähigkeiten in KI-Modellen

CODE INTERPRETER REASONING: Ein neuer Ansatz zur Verbesserung mathematischer Fähigkeiten in KI-Modellen

/
CoRT ist ein neuartiges Post-Training-Framework, das entwickelt wurde, um Large Reasoning Models (LRMs) zu lehren, wie sie effektiv mit Code-Interpretern interagieren können. Durch strategisches Hint-Engineering wird es diesen Modellen ermöglicht, mathematische Probleme besser zu lösen.
Artikelbild für den Artikel: TREERL: LLM Reinforcement Learning mit On-Policy Tree Search

TREERL: LLM Reinforcement Learning mit On-Policy Tree Search

/
TreeRL nutzt On-Policy Tree Search und Zwischenaufsicht, um LLMs effizienter zu trainieren und die Notwendigkeit eines separaten Belohnungsmodells zu eliminieren.
Artikelbild für den Artikel: Groq tritt Hugging Face Inference bei

Groq tritt Hugging Face Inference bei

/
Groq ist jetzt als Inference Provider auf dem Hugging Face Hub verfügbar, was die Möglichkeiten für serverlose Inferenz erweitert und Entwicklern den Zugang zu einer Vielzahl von Modellen erleichtert.