Beiträge

Artikelbild für den Artikel: Reinforcement Learning: Ein Überblick mit minimalem mathematischen Jargon

Reinforcement Learning: Ein Überblick mit minimalem mathematischen Jargon

/
Reinforcement Learning (RL) lehrt KI-Modelle durch Versuch und Irrtum, wodurch sie aus Fehlern lernen und sich auf komplexe Aufgaben konzentrieren können. In diesem Artikel wird die Entwicklung von RL und seine Bedeutung für moderne KI-Systeme erläutert.
Artikelbild für den Artikel: MiniMax veröffentlicht Open-Weight Reasoning Model M1

MiniMax veröffentlicht Open-Weight Reasoning Model M1

/
MiniMax hat sein neuestes Modell, MiniMax-M1, vorgestellt, das als das erste Open-Weight, groß angelegte Hybrid-Attention-Reasoning-Modell gilt. Mit 456 Milliarden Parametern nutzt das Modell eine hybride Mixture-of-Experts-Architektur, die in der Lage ist, Kontexte von bis zu 1 Million Tokens zu verarbeiten.
Artikelbild für den Artikel: Reinforcement Pre-Training: Ein neuer Ansatz für große Sprachmodelle

Reinforcement Pre-Training: Ein neuer Ansatz für große Sprachmodelle

/
Reinforcement Pre-Training (RPT) ist ein neues Skalierungsparadigma für große Sprachmodelle und Reinforcement Learning, das die Genauigkeit der Sprachmodellierung erheblich verbessert.
Artikelbild für den Artikel: Die Revolution des AI-Denkens: Einblicke von Lilian Weng

Die Revolution des AI-Denkens: Einblicke von Lilian Weng

/
Lilian Weng beleuchtet die Verbindung zwischen Rechenleistung zur Testzeit und menschlicher Psychologie und erklärt, warum Modelle durch zusätzliche Rechenschritte besser abschneiden.
Artikelbild für den Artikel: RANDOM REWARDS DURING RL BOOST MATH REASONING IN SOME LLMS

RANDOM REWARDS DURING RL BOOST MATH REASONING IN SOME LLMS

/
Die Qwen2.5-Math Modelle zeigen, dass zufällige Belohnungen wie falsches Feedback zu signifikanten Leistungssteigerungen im maschinellen Lernen führen können.
Artikelbild für den Artikel: EFFICIENT GRPO AT SCALE

EFFICIENT GRPO AT SCALE

/
Liger optimiert die Group Relative Policy Optimization (GRPO) und reduziert den Speicherbedarf um 40 %. Der Artikel behandelt die Integration in TRL und die Vorteile der neuen Funktionen.
Artikelbild für den Artikel: Learning to Reason Without External Rewards: Ein neuer Ansatz im Reinforcement Learning

Learning to Reason Without External Rewards: Ein neuer Ansatz im Reinforcement Learning

/
In diesem Artikel beleuchten wir die innovative Methode Intuitor, die es Large Language Models ermöglicht, ohne externe Belohnungen zu lernen und somit die Effizienz von KI-Systemen zu steigern.
Artikelbild für den Artikel: SELF-SUPERVISED CONVERSATIONAL SEARCH

SELF-SUPERVISED CONVERSATIONAL SEARCH

/
ConvSearch-R1 reformulates conversational queries without external supervision by using reinforcement learning with retrieval-based rewards.
Artikelbild für den Artikel: OPENAI COOKBOOK: MODEL GRADERS FOR REINFORCEMENT FINE-TUNING

OPENAI COOKBOOK: MODEL GRADERS FOR REINFORCEMENT FINE-TUNING

/
In diesem Tutorial wird erläutert, wie man Reinforcement Fine-Tuning (RFT) anwendet, um die Fähigkeiten des o4-mini-Modells in medizinischen Aufgaben zu verbessern.