Beiträge

Artikelbild für den Artikel: 8-Bit Rotational Quantization für die Vektorsuche

8-Bit Rotational Quantization für die Vektorsuche

/
Die 8-Bit Rotational Quantization ist eine innovative Methode zur Vektorquantisierung, die Speicherbedarf reduziert und die Geschwindigkeit von Vektorsuchen verbessert. In diesem Artikel werden die Funktionsweise, Vorteile und experimentellen Ergebnisse dieser Technik beleuchtet.
Artikelbild für den Artikel: LLM-Funktionsaufrufe skalieren nicht; Code-Orchestrierung ist einfacher und effektiver

LLM-Funktionsaufrufe skalieren nicht; Code-Orchestrierung ist einfacher und effektiver

/
In diesem Artikel untersuchen wir die Herausforderungen und Lösungen im Umgang mit großen Sprachmodellen (LLMs) und der Code-Orchestrierung, um die Effizienz der Datenverarbeitung zu steigern.
Artikelbild für den Artikel: VISUAL AUTOREGRESSION WITHOUT QUANTIZATION (GITHUB REPO)

VISUAL AUTOREGRESSION WITHOUT QUANTIZATION (GITHUB REPO)

/
Die kontinuierliche visuelle autoregressive Generierung ist ein spannendes Forschungsfeld, das in den letzten Jahren an Bedeutung gewonnen hat. Mit der Einführung von EAR wird ein neuer Ansatz vorgestellt, der die Quantisierung vermeidet und stattdessen auf streng korrekte Bewertungsregeln setzt.
Artikelbild für den Artikel: Manus erweitert den kostenlosen Zugang zu seinem virtuellen Desktop-AI-Agenten

Manus erweitert den kostenlosen Zugang zu seinem virtuellen Desktop-AI-Agenten

/
Manus hat seine Warteliste abgeschafft und bietet nun allen Nutzern kostenlosen Zugang zu seinem virtuellen Desktop-AI-Agenten, einschließlich täglicher Aufgaben und Bonus-Credits.
Artikelbild für den Artikel: Helium 1: Ein modularer und mehrsprachiger LLM

Helium 1: Ein modularer und mehrsprachiger LLM

/
Helium 1 ist ein leichtgewichtiges, mehrsprachiges Sprachmodell mit 2 Milliarden Parametern, das für Edge-Computing optimiert ist und die 24 offiziellen Sprachen der EU abdeckt.