News zu KI & Grundlagen

Artikelbild für den Artikel: Die Forschungslandschaft der Rechenzirkeln: Ergebnisse und Perspektiven

Die Forschungslandschaft der Rechenzirkeln: Ergebnisse und Perspektiven

/
In der Welt der Künstlichen Intelligenz (KI) ist das Verständnis der internen Mechanismen von Modellen von entscheidender Bedeutung. Forscher können nun die Schritt-für-Schritt-Rechenzirkeln nachverfolgen, die in KI-Modellen aktiviert werden.
Artikelbild für den Artikel: Tokenverschränkung im subliminalen Lernen

Tokenverschränkung im subliminalen Lernen

/
In diesem Artikel wird das Phänomen des subliminalen Lernens und die neue Methode ε-softmax zur Minderung von label noise in tiefen neuronalen Netzwerken behandelt.
Artikelbild für den Artikel: ChatGPT erreicht fast 700 Millionen wöchentliche Nutzer

ChatGPT erreicht fast 700 Millionen wöchentliche Nutzer

/
ChatGPT hat fast 700 Millionen wöchentliche aktive Nutzer erreicht, was die wachsende Akzeptanz von KI-Technologien in der Gesellschaft widerspiegelt. Der Artikel beleuchtet die Bedeutung dieser Zahlen und die Rolle von OpenAI.
Artikelbild für den Artikel: Persona Vectors: Monitoring und Kontrolle von Charaktereigenschaften in Sprachmodellen

Persona Vectors: Monitoring und Kontrolle von Charaktereigenschaften in Sprachmodellen

/
Der Artikel behandelt die Entwicklung und Anwendung von Persona Vectors in Sprachmodellen, um deren Charaktereigenschaften zu überwachen und zu steuern.
Artikelbild für den Artikel: Seed-Prover: Deep and Broad Reasoning für automatisiertes Theorem-Proving

Seed-Prover: Deep and Broad Reasoning für automatisiertes Theorem-Proving

/
Seed-Prover von ByteDance hat bei der IMO 2025 fünf von sechs Problemen gelöst und ist das erste chinesische KI-Modell, das dies erreicht hat. Der Artikel beleuchtet die Technologien und Erfolge hinter Seed-Prover sowie die Herausforderungen im Bereich des automatisierten Theorem-Proving.
Artikelbild für den Artikel: Scaling Laws für Mixture-of-Experts Modelle

Scaling Laws für Mixture-of-Experts Modelle

/
In diesem Artikel untersuchen wir die Effizienz von Mixture-of-Experts Modellen und das Konzept der Efficiency Leverage, basierend auf einer aktuellen empirischen Studie.
Artikelbild für den Artikel: Inverse Skalierung in der KI: Wenn längeres Nachdenken die Leistung mindert

Inverse Skalierung in der KI: Wenn längeres Nachdenken die Leistung mindert

/
Die Studie von Anthropic zeigt, dass längere Denkprozesse in großen KI-Modellen nicht immer zu besseren Ergebnissen führen, sondern sogar die Leistung mindern können. Dieses Phänomen, bekannt als inverse Skalierung, hat wichtige Implikationen für die KI-Sicherheit.
Artikelbild für den Artikel: ANTHROPIC RESEARCHERS DISCOVER THE WEIRD AI PROBLEM: WHY THINKING LONGER MAKES MODELS DUMBER

ANTHROPIC RESEARCHERS DISCOVER THE WEIRD AI PROBLEM: WHY THINKING LONGER MAKES MODELS DUMBER

/
Neue Forschungsergebnisse von Anthropic zeigen, dass längeres Nachdenken bei KI-Modellen nicht immer zu besseren Ergebnissen führt. In vielen Fällen kann es sogar zu einer Verschlechterung der Leistung kommen.
Artikelbild für den Artikel: ON 'CHATGPT PSYCHOSIS' AND LLM SYCOPHANCY

ON ‘CHATGPT PSYCHOSIS’ AND LLM SYCOPHANCY

/
In diesem Artikel untersuchen wir die psychologischen Auswirkungen von Interaktionen mit großen Sprachmodellen wie ChatGPT, insbesondere das Phänomen der ChatGPT-Psychose und die damit verbundene LLM-Sycophancy.