Beiträge

Artikelbild für den Artikel: ExecuTorch: KI-Modelle effizient auf Geräten bereitstellen

ExecuTorch: KI-Modelle effizient auf Geräten bereitstellen

/
ExecuTorch ist eine Lösung von PyTorch zur Bereitstellung von KI-Modellen auf Geräten, die Datenschutz, Leistung und Portabilität gewährleistet.
Artikelbild für den Artikel: Die Revolution der KI-Bereitstellung: ExecuTorch von PyTorch

Die Revolution der KI-Bereitstellung: ExecuTorch von PyTorch

/
ExecuTorch ist eine bahnbrechende Lösung von PyTorch zur Bereitstellung von KI-Modellen auf Geräten, die in Anwendungen von Meta wie Instagram und WhatsApp eingesetzt wird.
Artikelbild für den Artikel: FSDP2 Training: Ein flexibles Backend für Miles

FSDP2 Training: Ein flexibles Backend für Miles

/
Dieser Artikel beleuchtet FSDP2, ein flexibles Trainings-Backend für das Miles-Projekt, und diskutiert seine Vorteile und Implementierung.
Artikelbild für den Artikel: PINA: Eine neue Ära im Scientific Machine Learning mit PyTorch

PINA: Eine neue Ära im Scientific Machine Learning mit PyTorch

/
PINA ist eine neue Open-Source-Bibliothek für Scientific Machine Learning, die auf PyTorch basiert und eine einheitliche Plattform für die Modellierung komplexer Systeme bietet.
Artikelbild für den Artikel: FlashPack: Blitzschnelles Laden von Modellen für PyTorch

FlashPack: Blitzschnelles Laden von Modellen für PyTorch

/
FlashPack ist ein neues Dateiformat und Ladeverfahren für PyTorch, das die Ladezeiten von Modell-Checkpoints erheblich verkürzt. In diesem Artikel werden die Funktionsweise, Vorteile und Einschränkungen von FlashPack erläutert.
Artikelbild für den Artikel: Helion: Eine hochgradige DSL für leistungsfähige und portable ML-Kerne

Helion: Eine hochgradige DSL für leistungsfähige und portable ML-Kerne

/
Helion ist eine hochgradige, Python-embedded DSL für maschinelles Lernen, die eine neue Abstraktionsebene bietet, um benutzerdefinierte Kerne zu erstellen, die in Triton kompiliert werden. Der Artikel beleuchtet die Vorteile, die Programmiermodelle und die Leistungsanalyse von Helion.
Artikelbild für den Artikel: Disaggregierte Inferenz mit PyTorch und vLLM

Disaggregierte Inferenz mit PyTorch und vLLM

/
Die Integration von PyTorch und vLLM durch Meta verbessert die Effizienz generativer KI-Anwendungen durch die Disaggregation von Prefill und Decode, was zu optimierter Inferenzgeschwindigkeit und -effizienz führt.
Artikelbild für den Artikel: Die Optimierung von PyTorch-Inferenz auf Apple-Geräten durch KI-generierte Metal-Kernels

Die Optimierung von PyTorch-Inferenz auf Apple-Geräten durch KI-generierte Metal-Kernels

/
Eine neue Studie zeigt, dass KI-generierte Metal-Kernels die Inferenzgeschwindigkeit von PyTorch auf Apple-Geräten um 87% steigern können.
Artikelbild für den Artikel: Produktionstaugliche CUDA-Kernels erstellen

Produktionstaugliche CUDA-Kernels erstellen

/
In diesem Artikel erfahren Sie, wie Sie produktionstaugliche CUDA-Kernels mit der Kernel-Builder-Bibliothek von Hugging Face erstellen und bereitstellen können.