Artikelbild für den Artikel: Kontextpersonalisierung in KI-Agenten: Langzeitgedächtnis implementieren

Kontextpersonalisierung in KI-Agenten: Langzeitgedächtnis implementieren

/
In diesem Artikel zeigen wir, wie man mit dem OpenAI Agents SDK ein Langzeitgedächtnis implementiert, um einen personalisierten Reiseconcierge-Agenten zu erstellen.
Artikelbild für den Artikel: Falcon-H1R: Ein Durchbruch im Bereich des logischen Denkens mit einem 7B Modell

Falcon-H1R: Ein Durchbruch im Bereich des logischen Denkens mit einem 7B Modell

/
Falcon-H1R ist ein 7B Modell, das für reasoning-intensive Aufgaben optimiert ist und in Benchmark-Tests mit größeren Modellen konkurriert. Es zeigt, dass kleinere Modelle durch effiziente Architektur und gezieltes Training leistungsstark sein können.
Artikelbild für den Artikel: GRPO++: Tricks für funktionierendes Reinforcement Learning

GRPO++: Tricks für funktionierendes Reinforcement Learning

/
In diesem Artikel wird die Group Relative Policy Optimization (GRPO) als Schlüsseloptimierer für das Training von großen Sprachmodellen im Bereich des Reinforcement Learning vorgestellt. Es werden die Herausforderungen, Verbesserungen und die Zukunft von GRPO diskutiert.
Artikelbild für den Artikel: Die Fairness von LLMs als Richter

Die Fairness von LLMs als Richter

/
In diesem Artikel untersuchen wir die Fairness von großen Sprachmodellen (LLMs) bei der Bewertung anderer LLMs und die damit verbundenen Herausforderungen.
Artikelbild für den Artikel: Praktischer Leitfaden für Reinforcement Learning

Praktischer Leitfaden für Reinforcement Learning

/
In diesem Artikel erfahren Sie alles über Reinforcement Learning, seine Anwendungen, Technologien von Weights & Biases und spannende Fallstudien, die die praktische Relevanz dieser Technik verdeutlichen.
Artikelbild für den Artikel: Dynamische große Konzeptmodelle: Effiziente Sprachverarbeitung durch hierarchisches Modellieren

Dynamische große Konzeptmodelle: Effiziente Sprachverarbeitung durch hierarchisches Modellieren

/
Dynamische große Konzeptmodelle (DLCM) revolutionieren die Sprachverarbeitung, indem sie die Berechnung von Tokens auf einen komprimierten Konzeptraum verlagern und so die Effizienz von KI-Modellen verbessern.
Artikelbild für den Artikel: Vorhersagen für 2026: Die Zukunft der Künstlichen Intelligenz

Vorhersagen für 2026: Die Zukunft der Künstlichen Intelligenz

/
2026 wird das Jahr sein, in dem die Testzeit-Skalierung einen Durchbruch erleben wird. In diesem Artikel werfen wir einen Blick auf die Entwicklungen im Jahr 2025 und die Vorhersagen für das kommende Jahr im Bereich der Künstlichen Intelligenz.
Artikelbild für den Artikel: Harvards CS249R: Ein offenes Lehrbuch für Deep Learning und Reinforcement Learning

Harvards CS249R: Ein offenes Lehrbuch für Deep Learning und Reinforcement Learning

/
Der Kurs CS249R von Harvard bietet ein offenes Lehrbuch für Deep Learning und Reinforcement Learning und fördert die Ingenieurskunst in der KI.
Artikelbild für den Artikel: Google testet 30-minütige Audio-Vorlesungen auf NotebookLM

Google testet 30-minütige Audio-Vorlesungen auf NotebookLM

/
Google testet ein neues Format für Audio-Vorlesungen auf NotebookLM, das eine umfassende AI-generierte Vorlesung von etwa 30 Minuten Länge bietet. Diese Vorlesungen sollen in verschiedenen Sprachen verfügbar sein und richten sich an Studierende, Forscher und Berufstätige.