Beiträge

Artikelbild für den Artikel: Schnelleres MoE-Training mit benutzerdefinierten CUDA-Kernen

Schnelleres MoE-Training mit benutzerdefinierten CUDA-Kernen

/
In diesem Artikel wird die Optimierung von Mixture-of-Experts (MoE) Modellen durch benutzerdefinierte CUDA-Kerne und MXFP8 Quantisierung behandelt, die zu signifikanten Geschwindigkeitsvorteilen führen.