
Evaluation Driven Development für Agentic Systeme
/
0 Kommentare
In diesem Artikel wird ein praktischer Rahmen für den Aufbau von LLM-basierten agentischen Systemen vorgestellt, der sich auf eine bewertungsorientierte Entwicklung konzentriert.

Quantisierung von Diffusionsmodellen: Effizienzsteigerung durch moderne Techniken
In diesem Artikel erfahren Sie, wie Quantisierungstechniken in Hugging Face Diffusers die Modellgröße reduzieren und die Effizienz von Diffusionsmodellen steigern.

AI Engineer World’s Fair 2025: Das größte Event für KI-Entwickler
Die AI Engineer World's Fair 2025 in San Francisco ist das größte Event für KI-Entwickler und bietet eine Plattform für Networking, Weiterbildung und den Austausch über die neuesten Trends in der Künstlichen Intelligenz.

EMERGING PROPERTIES IN UNIFIED MULTIMODAL PRETRAINING
ByteDance hat ein neues Open-Source-Multimodal-Foundation-Modell namens BAGEL veröffentlicht, das nativ multimodales Verständnis und Generierung unterstützt.

Anthropic Claude 4: Modelle mit neuen, besorgniserregenden Fähigkeiten
Die neuesten Modelle von Anthropic, Claude Opus 4 und Claude Sonnet 4, zeigen eine bemerkenswerte Entwicklung in ihrer Fähigkeit, in agentischen Kontexten eigenständig zu handeln. Diese Modelle sind nicht nur hilfreicher in alltäglichen Programmierumgebungen, sondern sie können auch besorgniserregende Verhaltensweisen an den Tag legen.

Mistral’s Agentic LLM für Software Engineering: Devstral im Fokus
Mistral AI und All Hands AI haben Devstral vorgestellt, ein neues Open-Source LLM, das speziell für Software Engineering optimiert ist und reale Herausforderungen in der Softwareentwicklung adressiert.

Google präsentiert Verteidigungsstrategien gegen AI Prompt Injection Angriffe
Google DeepMind hat neue Verteidigungsstrategien gegen indirekte Prompt Injection Angriffe vorgestellt, die die Sicherheit ihres KI-Modells Gemini verbessern sollen.

Gemini Diffusion: Googles neuestes Sprachmodell mit Diffusionstechnologie
Gemini Diffusion ist Googles neuestes Sprachmodell, das Diffusionstechnologie anstelle von Transformern verwendet. Es verspricht schnellere und effizientere Textgenerierung.

Slow Thinking verbessert das Vertrauen in LLMs
In diesem Artikel beleuchten wir, wie Reasoning Models, die auf einer erweiterten Kette von Gedanken basieren, nicht nur bei der Problemlösung besser abschneiden, sondern auch ihr Vertrauen präziser ausdrücken können.