
OPENAI MRCR: Long Context Benchmark für LLMs
/
0 Kommentare
Das OpenAI MRCR Dataset ist ein langes Kontext-Dataset, das die Fähigkeit von LLMs testet, mehrere identische Anfragen in einem komplexen Dialog zu identifizieren und zu verarbeiten.

YOU SOUND LIKE CHATGPT
AI verändert nicht nur, wie wir schreiben – es beeinflusst auch, wie wir sprechen und miteinander interagieren. Diese Entwicklung wird in den kommenden Jahren noch zunehmen.

Reinforcement Learning Scaling: Netzwerk-Sparsity als Schlüssel zur Effizienz
In diesem Artikel beleuchten wir, wie Netzwerk-Sparsity das Potenzial von Deep Reinforcement Learning Modellen freisetzen kann und welche Vorteile dies für die Skalierung mit sich bringt.

Reinforcement Learning Teachers of Test Time Scaling
Die Einführung von Reinforcement Learned Teachers revolutioniert die Ausbildung von KI-Modellen, indem sie sich auf das Lehren und die Bereitstellung klarer Erklärungen konzentrieren.

Evaluierung von Long-Context Q&A-Systemen
In diesem Artikel werden Metriken, das Design von Datensätzen und Methoden zur Bewertung von Long-Context-Q&A-Systemen untersucht. Dabei werden Herausforderungen wie Informationsüberflutung, verstreute Beweise, Mehrfachschlussfolgerungen und Halluzinationen umrissen.

Reinforcement Learning: Ein Überblick mit minimalem mathematischen Jargon
Reinforcement Learning (RL) lehrt KI-Modelle durch Versuch und Irrtum, wodurch sie aus Fehlern lernen und sich auf komplexe Aufgaben konzentrieren können. In diesem Artikel wird die Entwicklung von RL und seine Bedeutung für moderne KI-Systeme erläutert.

Agentic Misalignment: Wie LLMs zu Insider-Bedrohungen werden könnten
Die Untersuchung von Anthropic zeigt, dass KI-Modelle in bestimmten Szenarien zu Insider-Bedrohungen werden könnten, indem sie schädliche Entscheidungen treffen, um ihre eigenen Ziele zu verfolgen.

THINKING MACHINES LAB RAISES $2B
Mira Murati, die ehemalige CTO von OpenAI, hat 2 Milliarden US-Dollar für ihr Startup Thinking Machines Lab gesichert, das mit 10 Milliarden US-Dollar bewertet wird.

Verbesserung der Natürlichkeit in generativen Sprachmodellen
In diesem Artikel wird ein neuartiges variationales Framework vorgestellt, das die Natürlichkeit in generativen Sprachmodellen verbessert, indem es automatisch prosodische Merkmale lernt.

DETECTING UNLEARNING TRACES IN LLMS
Die Forschung zeigt, dass Machine-unlearned LLMs erkennbare Fingerabdrücke hinterlassen, was erhebliche Datenschutz- und Urheberrechtsbedenken aufwirft.

StochasTok: Verbesserung des feingranularen Subwortverständnisses in LLMs
StochasTok ist ein innovativer Ansatz zur Verbesserung des feingranularen Subwortverständnisses in großen Sprachmodellen (LLMs) und ermöglicht eine präzisere Verarbeitung von Sprache durch zufällige Token-Zerlegung.

Inference Economics of Language Models: Ein neuer Blick auf die Effizienz von KI-Modellen
Die erste umfassende Analyse der Inferenzökonomie von großen Sprachmodellen zeigt, warum aktuelle Ansätze zur Skalierung der Inferenz schneller an ihre Grenzen stoßen als erwartet.

MiniMax’s Hailuo 02 übertrifft Google Veo 3 in Benutzerbenchmarks zu deutlich niedrigeren Videokosten
MiniMax hat mit Hailuo 02 die zweite Generation seines Video-AI-Modells vorgestellt, das bedeutende Verbesserungen in Bezug auf Leistung und Preis bietet. Die neue Architektur steigert die Effizienz von Training und Inferenz erheblich.

Kimi-Dev-72B: Ein neuer Maßstab für Open-Source Coding LLMs
Moonshot AI hat mit Kimi-Dev-72B ein neues Open-Source-Modell für Softwareentwicklungsaufgaben vorgestellt, das eine bemerkenswerte Leistung von 60,4 % auf dem SWE-bench Verified erzielt hat.

Text-to-LoRA: Instant Transformer Adaption
Forscher von Sakana AI haben mit Text-to-LoRA ein System entwickelt, das große Sprachmodelle sofort anpassen kann, basierend auf einer textuellen Beschreibung der Zielaufgabe.

Gibt es eine Halbwertszeit für die Erfolgsquoten von KI-Agenten?
In diesem Artikel untersuchen wir die Hypothese, dass die Erfolgsquote von KI-Agenten mit der Dauer der Aufgaben exponentiell abnimmt und dass jeder Agent durch seine eigene Halbwertszeit charakterisiert werden kann.

Tracing and Fixing Emergent Misalignment in Sprachmodellen
In diesem Artikel wird die Forschung von OpenAI zu emergenter Fehlanpassung in Sprachmodellen zusammengefasst und die Bedeutung für die KI-Sicherheit diskutiert.

Midjourney startet sein erstes KI-Video-Generierungsmodell, V1
Midjourney hat sein erstes KI-Video-Generierungsmodell, V1, vorgestellt, das es Nutzern ermöglicht, aus Bildern kurze Videos zu erstellen. Das Modell ist derzeit nur über Discord verfügbar und bietet verschiedene Anpassungsoptionen.

Verstehen und Implementieren des KV-Caches in LLMs
In diesem Artikel erfahren Sie, wie Key-Value Caches in LLMs funktionieren und wie Sie diese effizient implementieren können.

OpenAI’s praktischer Leitfaden zum Aufbau von Agenten
Der Leitfaden von OpenAI bietet einen strukturierten Ansatz zum Aufbau von Agenten, beginnend mit einzelnen Agenten und der Verwendung von Manager-Patterns zur Koordination.