Beiträge

Artikelbild für den Artikel: Die Lebensdauer einer Inferenzanfrage (vLLM V1): Wie LLMs effizient im großen Maßstab bereitgestellt werden

Die Lebensdauer einer Inferenzanfrage (vLLM V1): Wie LLMs effizient im großen Maßstab bereitgestellt werden

/
In diesem Artikel tauchen wir tief in die Funktionsweise von vLLM ein und erläutern, wie Anfragen verarbeitet werden, um eine effiziente Nutzung von Ressourcen zu gewährleisten.
Artikelbild für den Artikel: 12-Factor Agents: Prinzipien für den Aufbau zuverlässiger LLM-Anwendungen

12-Factor Agents: Prinzipien für den Aufbau zuverlässiger LLM-Anwendungen

/
In diesem Artikel werden 12 grundlegende Ingenieurtechniken diskutiert, die LLM-gestützte Software zuverlässiger, skalierbarer und einfacher wartbar machen.
Artikelbild für den Artikel: Ein Leitfaden für LLM-unterstützte Webforschung

Ein Leitfaden für LLM-unterstützte Webforschung

/
In diesem Artikel werden Strategien vorgestellt, wie LLMs (Large Language Models) optimal genutzt werden können, um die Effizienz und Genauigkeit von Webforschung zu verbessern.
Artikelbild für den Artikel: DON'T BUILD MULTI-AGENTS

DON’T BUILD MULTI-AGENTS

/
Die Entwickler von Devin stellen gängige Frameworks wie OpenAI's Swarm in Frage, indem sie argumentieren, dass parallele Subagenten fragile Systeme schaffen, die aufgrund von Kontext-Fehlern und widersprüchlichen Entscheidungen scheitern.
Artikelbild für den Artikel: OPENAI MRCR: Long Context Benchmark für LLMs

OPENAI MRCR: Long Context Benchmark für LLMs

/
Das OpenAI MRCR Dataset ist ein langes Kontext-Dataset, das die Fähigkeit von LLMs testet, mehrere identische Anfragen in einem komplexen Dialog zu identifizieren und zu verarbeiten.
Artikelbild für den Artikel: WRITING IN THE AGE OF LLMS

WRITING IN THE AGE OF LLMS

/
In diesem Artikel werden die Herausforderungen und Strategien beim Schreiben in einer Welt behandelt, in der viele Texte von LLMs generiert werden.
Artikelbild für den Artikel: TREERL: LLM Reinforcement Learning mit On-Policy Tree Search

TREERL: LLM Reinforcement Learning mit On-Policy Tree Search

/
TreeRL nutzt On-Policy Tree Search und Zwischenaufsicht, um LLMs effizienter zu trainieren und die Notwendigkeit eines separaten Belohnungsmodells zu eliminieren.
Artikelbild für den Artikel: Automatisierte Problemlösung mit SWE-Factory: Datenpipelines für GitHub-Issues

Automatisierte Problemlösung mit SWE-Factory: Datenpipelines für GitHub-Issues

/
SWE-Factory bietet automatisierte Trainings- und Evaluationspipelines für die Lösung von GitHub-Issues, unterstützt durch LLM-basierte Multi-Agenten-Systeme.
Artikelbild für den Artikel: Weak-to-Strong Decoding für LLM-Alignment

Weak-to-Strong Decoding für LLM-Alignment

/
Die Weak-to-Strong Decoding Methode verbessert die Ausrichtung von großen Sprachmodellen, indem ein kleines Modell den Anfang einer Antwort entwirft, gefolgt von einem größeren Modell. Dies steigert die Qualität der generierten Inhalte.
Artikelbild für den Artikel: Die Zukunft der Sprachsynthese: Bland AI revolutioniert TTS mit LLM-gestützter Audiogenerierung

Die Zukunft der Sprachsynthese: Bland AI revolutioniert TTS mit LLM-gestützter Audiogenerierung

/
Bland AI hat die Technologie der Text-zu-Sprache (TTS) neu gedacht, indem große Sprachmodelle verwendet werden, um Audio direkt aus Text vorherzusagen. In diesem Artikel werfen wir einen detaillierten Blick auf die technischen Grundlagen, Herausforderungen und Möglichkeiten, die sich aus dieser innovativen Herangehensweise ergeben.
Artikelbild für den Artikel: AGI ist nicht multimodal

AGI ist nicht multimodal

/
Die multimodale Herangehensweise wird nicht zu einer menschenähnlichen AGI führen. Wahre AGI benötigt ein physisches Verständnis der Welt, da viele Probleme nicht in ein Problem der Symbolmanipulation umgewandelt werden können.
Artikelbild für den Artikel: Warum meine skeptischen Freunde in Bezug auf KI verrückt sind

Warum meine skeptischen Freunde in Bezug auf KI verrückt sind

/
In einem leidenschaftlichen Artikel argumentiert Thomas Ptacek, dass die Skepsis gegenüber LLMs in der Softwareentwicklung unbegründet ist und viele talentierte Entwickler die Chancen verpassen, die diese Technologie bietet.
Artikelbild für den Artikel: DO YOU EVEN HAVE A SYSTEM PROMPT?

DO YOU EVEN HAVE A SYSTEM PROMPT?

/
In der Welt der Künstlichen Intelligenz ist das System-Prompt ein oft übersehener, aber entscheidender Aspekt, der die Interaktion mit KI-Modellen erheblich verbessern kann.
Artikelbild für den Artikel: Ein MCP-gestützter Agent in ~70 Zeilen Code

Ein MCP-gestützter Agent in ~70 Zeilen Code

/
In diesem Artikel erfahren Sie, wie Sie einen MCP-gestützten Agenten in Python erstellen können, um leistungsstarke Tools für große Sprachmodelle zu nutzen.
Artikelbild für den Artikel: Evaluation Driven Development für Agentic Systeme

Evaluation Driven Development für Agentic Systeme

/
In diesem Artikel wird ein praktischer Rahmen für den Aufbau von LLM-basierten agentischen Systemen vorgestellt, der sich auf eine bewertungsorientierte Entwicklung konzentriert.
Artikelbild für den Artikel: LLM-Funktionsaufrufe skalieren nicht; Code-Orchestrierung ist einfacher und effektiver

LLM-Funktionsaufrufe skalieren nicht; Code-Orchestrierung ist einfacher und effektiver

/
In diesem Artikel untersuchen wir die Herausforderungen und Lösungen im Umgang mit großen Sprachmodellen (LLMs) und der Code-Orchestrierung, um die Effizienz der Datenverarbeitung zu steigern.
Artikelbild für den Artikel: Mistral's Agentic LLM für Software Engineering: Devstral im Fokus

Mistral’s Agentic LLM für Software Engineering: Devstral im Fokus

/
Mistral AI und All Hands AI haben Devstral vorgestellt, ein neues Open-Source LLM, das speziell für Software Engineering optimiert ist und reale Herausforderungen in der Softwareentwicklung adressiert.
Artikelbild für den Artikel: Robustheit von LLM-basierten Sicherheitsrichtern

Robustheit von LLM-basierten Sicherheitsrichtern

/
Die Studie untersucht die Schwachstellen von LLM-basierten Sicherheitsrichtern und zeigt, wie Eingabensensitivität und adversarielle Angriffe die Zuverlässigkeit der Bewertungen beeinträchtigen können.
Artikelbild für den Artikel: ParScale: Ein neuer Ansatz zum parallelen Skalieren von LLMs

ParScale: Ein neuer Ansatz zum parallelen Skalieren von LLMs

/
ParScale hat ein drittes Paradigma für das Skalieren von LLMs eingeführt, das parallele Berechnungen sowohl während des Trainings als auch der Inferenz nutzt. Dieser Artikel beleuchtet die wichtigsten Erkenntnisse und Vorteile von ParScale.
Artikelbild für den Artikel: Helium 1: Ein modularer und mehrsprachiger LLM

Helium 1: Ein modularer und mehrsprachiger LLM

/
Helium 1 ist ein leichtgewichtiges, mehrsprachiges Sprachmodell mit 2 Milliarden Parametern, das für Edge-Computing optimiert ist und die 24 offiziellen Sprachen der EU abdeckt.