Beiträge

Artikelbild für den Artikel: ParScale: Ein neuer Ansatz zum parallelen Skalieren von LLMs

ParScale: Ein neuer Ansatz zum parallelen Skalieren von LLMs

/
ParScale hat ein drittes Paradigma für das Skalieren von LLMs eingeführt, das parallele Berechnungen sowohl während des Trainings als auch der Inferenz nutzt. Dieser Artikel beleuchtet die wichtigsten Erkenntnisse und Vorteile von ParScale.
Artikelbild für den Artikel: WavReward: Eine Revolution in der Bewertung gesprochener Dialogsysteme

WavReward: Eine Revolution in der Bewertung gesprochener Dialogsysteme

/
WavReward ist ein innovativer Evaluator für gesprochene Dialogsysteme, der auf Audio-Sprachmodellen basiert und sowohl kognitive als auch emotionale Metriken berücksichtigt.
Artikelbild für den Artikel: VISUAL AUTOREGRESSION WITHOUT QUANTIZATION (GITHUB REPO)

VISUAL AUTOREGRESSION WITHOUT QUANTIZATION (GITHUB REPO)

/
Die kontinuierliche visuelle autoregressive Generierung ist ein spannendes Forschungsfeld, das in den letzten Jahren an Bedeutung gewonnen hat. Mit der Einführung von EAR wird ein neuer Ansatz vorgestellt, der die Quantisierung vermeidet und stattdessen auf streng korrekte Bewertungsregeln setzt.
Artikelbild für den Artikel: Unified Training and Sampling für Generative Modelle: Ein Überblick über UCGM

Unified Training and Sampling für Generative Modelle: Ein Überblick über UCGM

/
UCGM bietet ein einheitliches Framework für das Training und Sampling von kontinuierlichen generativen Modellen, das sowohl multi-step als auch few-step Ansätze unterstützt.
Artikelbild für den Artikel: Ein allgemeiner Rahmen für Roboterrichtlinien: UniVLA auf GitHub

Ein allgemeiner Rahmen für Roboterrichtlinien: UniVLA auf GitHub

/
Der Artikel behandelt UniVLA, ein innovatives Framework zur Entwicklung von Roboterrichtlinien, das aus unlabeled Videos lernt und state-of-the-art Ergebnisse erzielt.
Artikelbild für den Artikel: Flow-GRPO: Integration von Reinforcement Learning in Flow Matching Modelle

Flow-GRPO: Integration von Reinforcement Learning in Flow Matching Modelle

/
Flow-GRPO integriert Reinforcement Learning in Flow Matching Modelle, um die Effizienz und Genauigkeit zu steigern. Dieser Artikel beleuchtet die technischen Details und Implementierungsmöglichkeiten.
Artikelbild für den Artikel: Effiziente Code-Retrieval mit LoRA: Ein neuer Ansatz zur Verbesserung der Genauigkeit

Effiziente Code-Retrieval mit LoRA: Ein neuer Ansatz zur Verbesserung der Genauigkeit

/
Forscher haben eine LoRA-basierte Methode zur Feinabstimmung von Code-Suchmodellen entwickelt, die die trainierbaren Parameter auf unter 2% reduziert und die Abrufgenauigkeit um bis zu 9,1% verbessert.
Artikelbild für den Artikel: Eine neuartige Initialisierungsmethode für neuronale Netzwerke: IDInit

Eine neuartige Initialisierungsmethode für neuronale Netzwerke: IDInit

/
Die neuartige Initialisierungstechnik IDInit gewährleistet eine stabile Konvergenz in tiefen neuronalen Netzwerken, indem sie Identitätsübergänge in Haupt- und Unterstamm-Schichten aufrechterhält.
Artikelbild für den Artikel: Die Rolle von PyTorch im KI-Stack

Die Rolle von PyTorch im KI-Stack

/
PyTorch hat sich von einem Forschungs-Framework zu einer grundlegenden Plattform entwickelt, die generative KI antreibt. Die PyTorch Foundation wurde erweitert, um komplementäre Projekte zu integrieren und die skalierbare Entwicklung von KI zu unterstützen.
Artikelbild für den Artikel: LLMs für Zeitreihen: Eine Umfrage zur Anpassung großer Sprachmodelle

LLMs für Zeitreihen: Eine Umfrage zur Anpassung großer Sprachmodelle

/
Diese Umfrage untersucht, wie Techniken der Kreuzmodalität große Sprachmodelle (LLMs) für die Analyse von Zeitreihen anpassen.
Artikelbild für den Artikel: SYNTHETIC DATA QA FRAMEWORK (GITHUB REPO)

SYNTHETIC DATA QA FRAMEWORK (GITHUB REPO)

/
Das Synthetic Data Quality Assurance Toolkit von Mostly AI bietet standardisierte Metriken zur Bewertung der Qualität und Privatsphäre von synthetischen Daten.
Artikelbild für den Artikel: DDT: Decoupled Diffusion Transformer – Eine neue Ära der Bildgenerierung

DDT: Decoupled Diffusion Transformer – Eine neue Ära der Bildgenerierung

/
Der Decoupled Diffusion Transformer (DDT) revolutioniert die Bildgenerierung durch eine innovative Encoder-Decoder-Architektur und beeindruckende Benchmark-Ergebnisse.
Artikelbild für den Artikel: Wie Ein-Schicht-Transformer Regelsprachen erkennen: Eine theoretische Analyse der Trainingsdynamik und impliziten Bias

Wie Ein-Schicht-Transformer Regelsprachen erkennen: Eine theoretische Analyse der Trainingsdynamik und impliziten Bias

/
In diesem Artikel werfen wir einen detaillierten Blick auf die Funktionsweise von Ein-Schicht-Transformern und deren Fähigkeit, Regelsprachen zu erkennen, basierend auf einer theoretischen und empirischen Analyse.
Artikelbild für den Artikel: 2025 PyTorch Docathon: Gemeinsam die Dokumentation verbessern

2025 PyTorch Docathon: Gemeinsam die Dokumentation verbessern

/
Der 2025 PyTorch Docathon ist ein Community-Event zur Verbesserung der Dokumentation von PyTorch, das allen Interessierten die Möglichkeit bietet, aktiv teilzunehmen und ihre Fähigkeiten zu entwickeln.