Beiträge

ContinualFlow in Generative Models
/
0 Kommentare
ContinualFlow ist ein neuartiger Ansatz für gezieltes Unlearning in generativen Modellen, der unerwünschte Datenbereiche effizient subtrahiert, ohne eine vollständige Neutrainierung zu erfordern.

Verbesserung der Natürlichkeit in generativen Sprachmodellen
In diesem Artikel wird ein neuartiges variationales Framework vorgestellt, das die Natürlichkeit in generativen Sprachmodellen verbessert, indem es automatisch prosodische Merkmale lernt.

FLUX.1 Kontext für In-Context Bildergenerierung: Eine Revolution in der Bildbearbeitung
Black Forest Labs hat mit FLUX.1 Kontext eine Suite von Flow-Matching-Modellen veröffentlicht, die text- und bildbasierte In-Context-Bilderstellung und -bearbeitung ermöglicht. Diese Modelle bieten verbesserte Text-zu-Bild-Fähigkeiten und lokale Bearbeitungsoptionen.

Forward-Only Diffusion: Ein neuer Ansatz in der generativen Modellierung
Die Forward-Only Diffusion (FoD) stellt einen neuen Ansatz in der generativen Modellierung dar, der auf einer mean-reverting stochastischen Differentialgleichung basiert und sich von traditionellen Diffusionsmodellen abhebt.

Unified Training and Sampling für Generative Modelle: Ein Überblick über UCGM
UCGM bietet ein einheitliches Framework für das Training und Sampling von kontinuierlichen generativen Modellen, das sowohl multi-step als auch few-step Ansätze unterstützt.