Beiträge

Artikelbild für den Artikel: Ein Leitfaden für LLM-unterstützte Webforschung

Ein Leitfaden für LLM-unterstützte Webforschung

/
In diesem Artikel werden Strategien vorgestellt, wie LLMs (Large Language Models) optimal genutzt werden können, um die Effizienz und Genauigkeit von Webforschung zu verbessern.
Artikelbild für den Artikel: 12-Factor Agents: Prinzipien für den Aufbau zuverlässiger LLM-Anwendungen

12-Factor Agents: Prinzipien für den Aufbau zuverlässiger LLM-Anwendungen

/
In diesem Artikel werden 12 grundlegende Ingenieurtechniken diskutiert, die LLM-gestützte Software zuverlässiger, skalierbarer und einfacher wartbar machen.
Artikelbild für den Artikel: DON'T BUILD MULTI-AGENTS

DON’T BUILD MULTI-AGENTS

/
Die Entwickler von Devin stellen gängige Frameworks wie OpenAI's Swarm in Frage, indem sie argumentieren, dass parallele Subagenten fragile Systeme schaffen, die aufgrund von Kontext-Fehlern und widersprüchlichen Entscheidungen scheitern.
Artikelbild für den Artikel: Scaling Vision Pre-Training auf 4K-Auflösung

Scaling Vision Pre-Training auf 4K-Auflösung

/
Die neueste Entwicklung im Bereich der visuellen KI ist die Möglichkeit, Vision Pre-Training auf bis zu 4K-Auflösung zu skalieren. Dies wird durch das PS3-Modell ermöglicht, das eine effiziente visuelle Vorverarbeitung mit selektiver Kodierung bietet und die Grundlage für das VILA-HD-Modell bildet.
Artikelbild für den Artikel: OPENAI MRCR: Long Context Benchmark für LLMs

OPENAI MRCR: Long Context Benchmark für LLMs

/
Das OpenAI MRCR Dataset ist ein langes Kontext-Dataset, das die Fähigkeit von LLMs testet, mehrere identische Anfragen in einem komplexen Dialog zu identifizieren und zu verarbeiten.
Artikelbild für den Artikel: Agentic Misalignment: Wie LLMs zu Insider-Bedrohungen werden könnten

Agentic Misalignment: Wie LLMs zu Insider-Bedrohungen werden könnten

/
Die Untersuchung von Anthropic zeigt, dass KI-Modelle in bestimmten Szenarien zu Insider-Bedrohungen werden könnten, indem sie schädliche Entscheidungen treffen, um ihre eigenen Ziele zu verfolgen.
Artikelbild für den Artikel: StochasTok: Verbesserung des feingranularen Subwortverständnisses in LLMs

StochasTok: Verbesserung des feingranularen Subwortverständnisses in LLMs

/
StochasTok ist ein innovativer Ansatz zur Verbesserung des feingranularen Subwortverständnisses in großen Sprachmodellen (LLMs) und ermöglicht eine präzisere Verarbeitung von Sprache durch zufällige Token-Zerlegung.
Artikelbild für den Artikel: DETECTING UNLEARNING TRACES IN LLMS

DETECTING UNLEARNING TRACES IN LLMS

/
Die Forschung zeigt, dass Machine-unlearned LLMs erkennbare Fingerabdrücke hinterlassen, was erhebliche Datenschutz- und Urheberrechtsbedenken aufwirft.
Artikelbild für den Artikel: Andrej Karpathy über die Veränderungen durch KI in der Softwareentwicklung

Andrej Karpathy über die Veränderungen durch KI in der Softwareentwicklung

/
Andrej Karpathy beschreibt die Transformation der Softwareentwicklung durch KI und die Rolle von LLMs in der neuen Ära der Software 3.0.