Beiträge

Artikelbild für den Artikel: OpenAI's praktischer Leitfaden zum Aufbau von Agenten

OpenAI’s praktischer Leitfaden zum Aufbau von Agenten

/
Der Leitfaden von OpenAI bietet einen strukturierten Ansatz zum Aufbau von Agenten, beginnend mit einzelnen Agenten und der Verwendung von Manager-Patterns zur Koordination.
Artikelbild für den Artikel: Spatiotemporale Aufmerksamkeit für die Decodierung von Motorik-Elektroenzephalogramm (MI-EEG)

Spatiotemporale Aufmerksamkeit für die Decodierung von Motorik-Elektroenzephalogramm (MI-EEG)

/
In diesem Artikel stellen wir das TCANet vor, ein innovatives Modell zur Decodierung von Motorik-Elektroenzephalogramm (MI-EEG) Signalen, das auf mehrskaligen Faltungen und Selbstaufmerksamkeit basiert.
Artikelbild für den Artikel: TREERL: LLM Reinforcement Learning mit On-Policy Tree Search

TREERL: LLM Reinforcement Learning mit On-Policy Tree Search

/
TreeRL nutzt On-Policy Tree Search und Zwischenaufsicht, um LLMs effizienter zu trainieren und die Notwendigkeit eines separaten Belohnungsmodells zu eliminieren.
Artikelbild für den Artikel: LOW-BIT QUANTIZATION WITH PARETOQ

LOW-BIT QUANTIZATION WITH PARETOQ

/
ParetoQ ist ein neuer Trainingsalgorithmus, der binäre, ternäre und 2- bis 4-Bit-Quantisierung vereint und dabei erstklassige Ergebnisse auf allen Ebenen erzielt.
Artikelbild für den Artikel: SELF-ADAPTING LANGUAGE MODELS: Ein neuer Ansatz für personalisierte KI

SELF-ADAPTING LANGUAGE MODELS: Ein neuer Ansatz für personalisierte KI

/
Self-Adapting Language Models (SEAL) revolutionieren die Anpassungsfähigkeit von KI durch die Möglichkeit, eigene Feinabstimmungsdaten zu generieren und sich selbst zu bearbeiten.
Artikelbild für den Artikel: PHYSICAL WORLD MODEL BY META

PHYSICAL WORLD MODEL BY META

/
Meta hat V-JEPA 2 angekündigt, ein neues visuelles Weltmodell, das das physische Denken für KI-Agenten verbessert und drei Benchmarks zur Bewertung der Modellleistung einführt.
Artikelbild für den Artikel: Reinforcement Pre-Training: Ein neuer Ansatz für große Sprachmodelle

Reinforcement Pre-Training: Ein neuer Ansatz für große Sprachmodelle

/
Reinforcement Pre-Training (RPT) ist ein neues Skalierungsparadigma für große Sprachmodelle und Reinforcement Learning, das die Genauigkeit der Sprachmodellierung erheblich verbessert.
Artikelbild für den Artikel: JavelinGuard: Low-Cost Transformer-Architekturen für die Sicherheit von LLMs

JavelinGuard: Low-Cost Transformer-Architekturen für die Sicherheit von LLMs

/
JavelinGuard ist eine Suite von kostengünstigen, leistungsstarken Modellarchitekturen, die entwickelt wurden, um böswillige Absichten in Interaktionen mit großen Sprachmodellen zu erkennen.
Artikelbild für den Artikel: Updates zu Apples On-Device und Server Foundation Language Models

Updates zu Apples On-Device und Server Foundation Language Models

/
Apple hat auf der WWDC 2025 neue Funktionen der Apple Intelligence vorgestellt, darunter On-Device Foundation Models, die Entwicklern helfen, KI-Erlebnisse in ihre Apps zu integrieren, während gleichzeitig der Datenschutz gewahrt bleibt.