Beiträge

Artikelbild für den Artikel: OPENAI MRCR: Long Context Benchmark für LLMs

OPENAI MRCR: Long Context Benchmark für LLMs

/
Das OpenAI MRCR Dataset ist ein langes Kontext-Dataset, das die Fähigkeit von LLMs testet, mehrere identische Anfragen in einem komplexen Dialog zu identifizieren und zu verarbeiten.
Artikelbild für den Artikel: Agentic Misalignment: Wie LLMs zu Insider-Bedrohungen werden könnten

Agentic Misalignment: Wie LLMs zu Insider-Bedrohungen werden könnten

/
Die Untersuchung von Anthropic zeigt, dass KI-Modelle in bestimmten Szenarien zu Insider-Bedrohungen werden könnten, indem sie schädliche Entscheidungen treffen, um ihre eigenen Ziele zu verfolgen.
Artikelbild für den Artikel: StochasTok: Verbesserung des feingranularen Subwortverständnisses in LLMs

StochasTok: Verbesserung des feingranularen Subwortverständnisses in LLMs

/
StochasTok ist ein innovativer Ansatz zur Verbesserung des feingranularen Subwortverständnisses in großen Sprachmodellen (LLMs) und ermöglicht eine präzisere Verarbeitung von Sprache durch zufällige Token-Zerlegung.
Artikelbild für den Artikel: DETECTING UNLEARNING TRACES IN LLMS

DETECTING UNLEARNING TRACES IN LLMS

/
Die Forschung zeigt, dass Machine-unlearned LLMs erkennbare Fingerabdrücke hinterlassen, was erhebliche Datenschutz- und Urheberrechtsbedenken aufwirft.
Artikelbild für den Artikel: Andrej Karpathy über die Veränderungen durch KI in der Softwareentwicklung

Andrej Karpathy über die Veränderungen durch KI in der Softwareentwicklung

/
Andrej Karpathy beschreibt die Transformation der Softwareentwicklung durch KI und die Rolle von LLMs in der neuen Ära der Software 3.0.
Artikelbild für den Artikel: WRITING IN THE AGE OF LLMS

WRITING IN THE AGE OF LLMS

/
In diesem Artikel werden die Herausforderungen und Strategien beim Schreiben in einer Welt behandelt, in der viele Texte von LLMs generiert werden.
Artikelbild für den Artikel: Verstehen und Implementieren des KV-Caches in LLMs

Verstehen und Implementieren des KV-Caches in LLMs

/
In diesem Artikel erfahren Sie, wie Key-Value Caches in LLMs funktionieren und wie Sie diese effizient implementieren können.
Artikelbild für den Artikel: TREERL: LLM Reinforcement Learning mit On-Policy Tree Search

TREERL: LLM Reinforcement Learning mit On-Policy Tree Search

/
TreeRL nutzt On-Policy Tree Search und Zwischenaufsicht, um LLMs effizienter zu trainieren und die Notwendigkeit eines separaten Belohnungsmodells zu eliminieren.
Artikelbild für den Artikel: Automatisierte Problemlösung mit SWE-Factory: Datenpipelines für GitHub-Issues

Automatisierte Problemlösung mit SWE-Factory: Datenpipelines für GitHub-Issues

/
SWE-Factory bietet automatisierte Trainings- und Evaluationspipelines für die Lösung von GitHub-Issues, unterstützt durch LLM-basierte Multi-Agenten-Systeme.