Beiträge

Artikelbild für den Artikel: Groq tritt Hugging Face Inference bei

Groq tritt Hugging Face Inference bei

/
Groq ist jetzt als Inference Provider auf dem Hugging Face Hub verfügbar, was die Möglichkeiten für serverlose Inferenz erweitert und Entwicklern den Zugang zu einer Vielzahl von Modellen erleichtert.
Artikelbild für den Artikel: Featherless AI auf Hugging Face: Serverless Zugriff auf KI-Modelle

Featherless AI auf Hugging Face: Serverless Zugriff auf KI-Modelle

/
Featherless AI ist jetzt als Inference Provider auf Hugging Face verfügbar und bietet serverlosen Zugriff auf eine Vielzahl von Modellen. Diese Entwicklung erweitert die Möglichkeiten für Entwickler und Unternehmen, die leistungsstarke KI-Modelle in ihre Anwendungen integrieren möchten.
Artikelbild für den Artikel: Hugging Face Safetensors jetzt in PyTorch Distributed Checkpointing unterstützt

Hugging Face Safetensors jetzt in PyTorch Distributed Checkpointing unterstützt

/
Die Unterstützung von Hugging Face Safetensors im PyTorch Distributed Checkpointing stellt einen bedeutenden Fortschritt in der Interoperabilität zwischen verschiedenen Modellformaten dar.
Artikelbild für den Artikel: ScreenSuite: Die umfassendste Evaluationssuite für GUI-Agenten

ScreenSuite: Die umfassendste Evaluationssuite für GUI-Agenten

/
ScreenSuite ist eine neue Benchmarking-Suite von Hugging Face, die einen standardisierten Rahmen zur Bewertung von Vision-Language-Modellen bei GUI-basierten Agenten bietet.
Artikelbild für den Artikel: Effizientes Online-Lernen mit TRL und VLLM

Effizientes Online-Lernen mit TRL und VLLM

/
Erfahren Sie, wie die Integration von vLLM in TRL die Effizienz beim Training großer Sprachmodelle verbessert und GPU-Ressourcen optimal nutzt.
Artikelbild für den Artikel: Google veröffentlicht App zur lokalen Ausführung von KI-Modellen auf Android

Google veröffentlicht App zur lokalen Ausführung von KI-Modellen auf Android

/
Die Google AI Edge Gallery ermöglicht es Nutzern, KI-Modelle lokal auf Android-Geräten zu finden und auszuführen, ohne dass eine Internetverbindung erforderlich ist.
Artikelbild für den Artikel: Hugging Face präsentiert zwei vollständig Open-Source-Humanoide Roboter

Hugging Face präsentiert zwei vollständig Open-Source-Humanoide Roboter

/
Hugging Face hat zwei neue humanoide Roboter vorgestellt: HopeJR und Reachy Mini, die Open Source sind und darauf abzielen, KI-Anwendungen zu testen.
Artikelbild für den Artikel: DeepSeek veröffentlicht kleines Update für das R1-Reasoning-Modell

DeepSeek veröffentlicht kleines Update für das R1-Reasoning-Modell

/
DeepSeek hat ein aktualisiertes R1-Reasoning-Modell auf Hugging Face veröffentlicht, das als kleines Upgrade beschrieben wird. Die Details sind spärlich, doch die Veröffentlichung könnte für Entwickler von Bedeutung sein.
Artikelbild für den Artikel: STRUCTURED CODEAGENTS FÜR INTELLIGENTERE AUSFÜHRUNGEN

STRUCTURED CODEAGENTS FÜR INTELLIGENTERE AUSFÜHRUNGEN

/
In diesem Artikel wird die innovative Kombination von strukturierter Generierung und codebasierten Aktionen durch Hugging Face vorgestellt, die die Leistung von CodeAgents verbessert.
Artikelbild für den Artikel: EFFICIENT GRPO AT SCALE

EFFICIENT GRPO AT SCALE

/
Liger optimiert die Group Relative Policy Optimization (GRPO) und reduziert den Speicherbedarf um 40 %. Der Artikel behandelt die Integration in TRL und die Vorteile der neuen Funktionen.
Artikelbild für den Artikel: Ein MCP-gestützter Agent in ~70 Zeilen Code

Ein MCP-gestützter Agent in ~70 Zeilen Code

/
In diesem Artikel erfahren Sie, wie Sie einen MCP-gestützten Agenten in Python erstellen können, um leistungsstarke Tools für große Sprachmodelle zu nutzen.
Artikelbild für den Artikel: Quantisierung von Diffusionsmodellen: Effizienzsteigerung durch moderne Techniken

Quantisierung von Diffusionsmodellen: Effizienzsteigerung durch moderne Techniken

/
In diesem Artikel erfahren Sie, wie Quantisierungstechniken in Hugging Face Diffusers die Modellgröße reduzieren und die Effizienz von Diffusionsmodellen steigern.
Artikelbild für den Artikel: Hugging Face Modelle über Azure AI Foundry bereitstellen

Hugging Face Modelle über Azure AI Foundry bereitstellen

/
Microsoft und Hugging Face haben ihre Partnerschaft erweitert, um über 10.000 Hugging Face Modelle in die Azure AI Foundry zu integrieren, was die Nutzung offener Modelle für Unternehmen erleichtert.
Artikelbild für den Artikel: Blitzschnelle Transkriptionen mit Hugging Face Whisper Endpoint

Blitzschnelle Transkriptionen mit Hugging Face Whisper Endpoint

/
Hugging Face hat einen neuen Whisper Endpoint veröffentlicht, der Transkriptionen bis zu 8-mal schneller liefert und die Bereitstellung leistungsstarker Modelle für Sprachaufgaben erleichtert.
Artikelbild für den Artikel: Die Landschaft und Fortschritte der Vision Language Models

Die Landschaft und Fortschritte der Vision Language Models

/
In diesem Artikel wird die Entwicklung der Vision Language Models (VLMs) beleuchtet, die durch kleinere, leistungsfähigere Architekturen in der Lage sind, komplexe Aufgaben wie Videoverstehen und multimodale Agenten zu bewältigen.
Artikelbild für den Artikel: Hugging Face veröffentlicht ein kostenloses agentisches KI-Tool

Hugging Face veröffentlicht ein kostenloses agentisches KI-Tool

/
Hugging Face hat mit dem Open Computer Agent ein cloud-basiertes KI-Tool veröffentlicht, das grundlegende Aufgaben ausführen kann, jedoch bei komplexeren Anfragen Schwierigkeiten zeigt.
Artikelbild für den Artikel: NVIDIA RADIO EMBEDDING MODELS (HUGGING FACE HUB)

NVIDIA RADIO EMBEDDING MODELS (HUGGING FACE HUB)

/
NVIDIA hat eine Reihe von Text- und Bild-Embedding-Modellen entwickelt, die in vielen Fällen mit SigLIP konkurrieren können. Diese Modelle sind Teil der umfangreichen Sammlung von Hugging Face, die darauf abzielt, die Möglichkeiten der KI-gestützten Bild- und Textverarbeitung zu erweitern.