Artikelbild für den Artikel: YOU SOUND LIKE CHATGPT

YOU SOUND LIKE CHATGPT

/
AI verändert nicht nur, wie wir schreiben – es beeinflusst auch, wie wir sprechen und miteinander interagieren. Diese Entwicklung wird in den kommenden Jahren noch zunehmen.
Artikelbild für den Artikel: Reinforcement Learning Scaling: Netzwerk-Sparsity als Schlüssel zur Effizienz

Reinforcement Learning Scaling: Netzwerk-Sparsity als Schlüssel zur Effizienz

/
In diesem Artikel beleuchten wir, wie Netzwerk-Sparsity das Potenzial von Deep Reinforcement Learning Modellen freisetzen kann und welche Vorteile dies für die Skalierung mit sich bringt.
Artikelbild für den Artikel: Agentic Misalignment: Wie LLMs zu Insider-Bedrohungen werden könnten

Agentic Misalignment: Wie LLMs zu Insider-Bedrohungen werden könnten

/
Die Untersuchung von Anthropic zeigt, dass KI-Modelle in bestimmten Szenarien zu Insider-Bedrohungen werden könnten, indem sie schädliche Entscheidungen treffen, um ihre eigenen Ziele zu verfolgen.
Artikelbild für den Artikel: THINKING MACHINES LAB RAISES $2B

THINKING MACHINES LAB RAISES $2B

/
Mira Murati, die ehemalige CTO von OpenAI, hat 2 Milliarden US-Dollar für ihr Startup Thinking Machines Lab gesichert, das mit 10 Milliarden US-Dollar bewertet wird.
Artikelbild für den Artikel: DETECTING UNLEARNING TRACES IN LLMS

DETECTING UNLEARNING TRACES IN LLMS

/
Die Forschung zeigt, dass Machine-unlearned LLMs erkennbare Fingerabdrücke hinterlassen, was erhebliche Datenschutz- und Urheberrechtsbedenken aufwirft.
Artikelbild für den Artikel: Verbesserung der Natürlichkeit in generativen Sprachmodellen

Verbesserung der Natürlichkeit in generativen Sprachmodellen

/
In diesem Artikel wird ein neuartiges variationales Framework vorgestellt, das die Natürlichkeit in generativen Sprachmodellen verbessert, indem es automatisch prosodische Merkmale lernt.
Artikelbild für den Artikel: StochasTok: Verbesserung des feingranularen Subwortverständnisses in LLMs

StochasTok: Verbesserung des feingranularen Subwortverständnisses in LLMs

/
StochasTok ist ein innovativer Ansatz zur Verbesserung des feingranularen Subwortverständnisses in großen Sprachmodellen (LLMs) und ermöglicht eine präzisere Verarbeitung von Sprache durch zufällige Token-Zerlegung.
Artikelbild für den Artikel: Inference Economics of Language Models: Ein neuer Blick auf die Effizienz von KI-Modellen

Inference Economics of Language Models: Ein neuer Blick auf die Effizienz von KI-Modellen

/
Die erste umfassende Analyse der Inferenzökonomie von großen Sprachmodellen zeigt, warum aktuelle Ansätze zur Skalierung der Inferenz schneller an ihre Grenzen stoßen als erwartet.
Artikelbild für den Artikel: MiniMax's Hailuo 02 übertrifft Google Veo 3 in Benutzerbenchmarks zu deutlich niedrigeren Videokosten

MiniMax’s Hailuo 02 übertrifft Google Veo 3 in Benutzerbenchmarks zu deutlich niedrigeren Videokosten

/
MiniMax hat mit Hailuo 02 die zweite Generation seines Video-AI-Modells vorgestellt, das bedeutende Verbesserungen in Bezug auf Leistung und Preis bietet. Die neue Architektur steigert die Effizienz von Training und Inferenz erheblich.
Artikelbild für den Artikel: Kimi-Dev-72B: Ein neuer Maßstab für Open-Source Coding LLMs

Kimi-Dev-72B: Ein neuer Maßstab für Open-Source Coding LLMs

/
Moonshot AI hat mit Kimi-Dev-72B ein neues Open-Source-Modell für Softwareentwicklungsaufgaben vorgestellt, das eine bemerkenswerte Leistung von 60,4 % auf dem SWE-bench Verified erzielt hat.
Artikelbild für den Artikel: Text-to-LoRA: Instant Transformer Adaption

Text-to-LoRA: Instant Transformer Adaption

/
Forscher von Sakana AI haben mit Text-to-LoRA ein System entwickelt, das große Sprachmodelle sofort anpassen kann, basierend auf einer textuellen Beschreibung der Zielaufgabe.
Artikelbild für den Artikel: Gibt es eine Halbwertszeit für die Erfolgsquoten von KI-Agenten?

Gibt es eine Halbwertszeit für die Erfolgsquoten von KI-Agenten?

/
In diesem Artikel untersuchen wir die Hypothese, dass die Erfolgsquote von KI-Agenten mit der Dauer der Aufgaben exponentiell abnimmt und dass jeder Agent durch seine eigene Halbwertszeit charakterisiert werden kann.
Artikelbild für den Artikel: Tracing and Fixing Emergent Misalignment in Sprachmodellen

Tracing and Fixing Emergent Misalignment in Sprachmodellen

/
In diesem Artikel wird die Forschung von OpenAI zu emergenter Fehlanpassung in Sprachmodellen zusammengefasst und die Bedeutung für die KI-Sicherheit diskutiert.
Artikelbild für den Artikel: Midjourney startet sein erstes KI-Video-Generierungsmodell, V1

Midjourney startet sein erstes KI-Video-Generierungsmodell, V1

/
Midjourney hat sein erstes KI-Video-Generierungsmodell, V1, vorgestellt, das es Nutzern ermöglicht, aus Bildern kurze Videos zu erstellen. Das Modell ist derzeit nur über Discord verfügbar und bietet verschiedene Anpassungsoptionen.
Artikelbild für den Artikel: MiniMax veröffentlicht Open-Weight Reasoning Model M1

MiniMax veröffentlicht Open-Weight Reasoning Model M1

/
MiniMax hat sein neuestes Modell, MiniMax-M1, vorgestellt, das als das erste Open-Weight, groß angelegte Hybrid-Attention-Reasoning-Modell gilt. Mit 456 Milliarden Parametern nutzt das Modell eine hybride Mixture-of-Experts-Architektur, die in der Lage ist, Kontexte von bis zu 1 Million Tokens zu verarbeiten.
Artikelbild für den Artikel: OpenAI's praktischer Leitfaden zum Aufbau von Agenten

OpenAI’s praktischer Leitfaden zum Aufbau von Agenten

/
Der Leitfaden von OpenAI bietet einen strukturierten Ansatz zum Aufbau von Agenten, beginnend mit einzelnen Agenten und der Verwendung von Manager-Patterns zur Koordination.
Artikelbild für den Artikel: Verstehen und Implementieren des KV-Caches in LLMs

Verstehen und Implementieren des KV-Caches in LLMs

/
In diesem Artikel erfahren Sie, wie Key-Value Caches in LLMs funktionieren und wie Sie diese effizient implementieren können.
Artikelbild für den Artikel: TREERL: LLM Reinforcement Learning mit On-Policy Tree Search

TREERL: LLM Reinforcement Learning mit On-Policy Tree Search

/
TreeRL nutzt On-Policy Tree Search und Zwischenaufsicht, um LLMs effizienter zu trainieren und die Notwendigkeit eines separaten Belohnungsmodells zu eliminieren.
Artikelbild für den Artikel: CODE INTERPRETER REASONING: Ein neuer Ansatz zur Verbesserung mathematischer Fähigkeiten in KI-Modellen

CODE INTERPRETER REASONING: Ein neuer Ansatz zur Verbesserung mathematischer Fähigkeiten in KI-Modellen

/
CoRT ist ein neuartiges Post-Training-Framework, das entwickelt wurde, um Large Reasoning Models (LRMs) zu lehren, wie sie effektiv mit Code-Interpretern interagieren können. Durch strategisches Hint-Engineering wird es diesen Modellen ermöglicht, mathematische Probleme besser zu lösen.
Artikelbild für den Artikel: Das AI Eval Flywheel: Scorers, Datasets, Produktionsnutzung & schnelle Iteration

Das AI Eval Flywheel: Scorers, Datasets, Produktionsnutzung & schnelle Iteration

/
In diesem Artikel wird das Konzept des AI Eval Flywheel untersucht, das sich auf die Entwicklung und Bewertung von KI-Funktionen konzentriert, einschließlich der Verwendung von Evals, Datenbanken und der Bedeutung von Online-Evals.