
THINKING MACHINES LAB RAISES $2B
/
0 Kommentare
Mira Murati, die ehemalige CTO von OpenAI, hat 2 Milliarden US-Dollar für ihr Startup Thinking Machines Lab gesichert, das mit 10 Milliarden US-Dollar bewertet wird.

Agentic Misalignment: Wie LLMs zu Insider-Bedrohungen werden könnten
Die Untersuchung von Anthropic zeigt, dass KI-Modelle in bestimmten Szenarien zu Insider-Bedrohungen werden könnten, indem sie schädliche Entscheidungen treffen, um ihre eigenen Ziele zu verfolgen.

MiniMax’s Hailuo 02 übertrifft Google Veo 3 in Benutzerbenchmarks zu deutlich niedrigeren Videokosten
MiniMax hat mit Hailuo 02 die zweite Generation seines Video-AI-Modells vorgestellt, das bedeutende Verbesserungen in Bezug auf Leistung und Preis bietet. Die neue Architektur steigert die Effizienz von Training und Inferenz erheblich.

Inference Economics of Language Models: Ein neuer Blick auf die Effizienz von KI-Modellen
Die erste umfassende Analyse der Inferenzökonomie von großen Sprachmodellen zeigt, warum aktuelle Ansätze zur Skalierung der Inferenz schneller an ihre Grenzen stoßen als erwartet.

StochasTok: Verbesserung des feingranularen Subwortverständnisses in LLMs
StochasTok ist ein innovativer Ansatz zur Verbesserung des feingranularen Subwortverständnisses in großen Sprachmodellen (LLMs) und ermöglicht eine präzisere Verarbeitung von Sprache durch zufällige Token-Zerlegung.

Verbesserung der Natürlichkeit in generativen Sprachmodellen
In diesem Artikel wird ein neuartiges variationales Framework vorgestellt, das die Natürlichkeit in generativen Sprachmodellen verbessert, indem es automatisch prosodische Merkmale lernt.

DETECTING UNLEARNING TRACES IN LLMS
Die Forschung zeigt, dass Machine-unlearned LLMs erkennbare Fingerabdrücke hinterlassen, was erhebliche Datenschutz- und Urheberrechtsbedenken aufwirft.

Tracing and Fixing Emergent Misalignment in Sprachmodellen
In diesem Artikel wird die Forschung von OpenAI zu emergenter Fehlanpassung in Sprachmodellen zusammengefasst und die Bedeutung für die KI-Sicherheit diskutiert.

Gibt es eine Halbwertszeit für die Erfolgsquoten von KI-Agenten?
In diesem Artikel untersuchen wir die Hypothese, dass die Erfolgsquote von KI-Agenten mit der Dauer der Aufgaben exponentiell abnimmt und dass jeder Agent durch seine eigene Halbwertszeit charakterisiert werden kann.
