News zu KI & Grundlagen

Artikelbild für den Artikel: Der Entwicklerleitfaden zu Agentic AI, MCP und A2A

Der Entwicklerleitfaden zu Agentic AI, MCP und A2A

/
In diesem Artikel erfahren Sie alles über Agentic AI, die Rolle von AI-Agenten sowie die Bedeutung von Model Context Protocol (MCP) und Agent2Agent (A2A) für die Automatisierung.
Artikelbild für den Artikel: Weak-to-Strong Decoding für LLM-Alignment

Weak-to-Strong Decoding für LLM-Alignment

/
Die Weak-to-Strong Decoding Methode verbessert die Ausrichtung von großen Sprachmodellen, indem ein kleines Modell den Anfang einer Antwort entwirft, gefolgt von einem größeren Modell. Dies steigert die Qualität der generierten Inhalte.
Artikelbild für den Artikel: OpenAI veröffentlicht o3-pro: Ein leistungsstarkes Update des o3 AI-Reasoning-Modells

OpenAI veröffentlicht o3-pro: Ein leistungsstarkes Update des o3 AI-Reasoning-Modells

/
OpenAI hat mit o3-pro ein neues KI-Modell vorgestellt, das als verbesserte Version des bestehenden o3 gilt. Mit einer drastischen Preissenkung von 80 % bietet es eine kosteneffiziente Lösung für Unternehmen und Entwickler.
Artikelbild für den Artikel: Mistral präsentiert das erste KI-Reasoning-Modell: Magistral

Mistral präsentiert das erste KI-Reasoning-Modell: Magistral

/
Mistral hat mit Magistral ein neues Open-Source-Reasoning-Modell vorgestellt, das in der Lage ist, komplexe Probleme schneller und mehrsprachig zu lösen.
Artikelbild für den Artikel: TOWARDS ADAPTIVE CLINICAL AI VIA THE CONSENSUS OF EXPERT MODEL ENSEMBLE

TOWARDS ADAPTIVE CLINICAL AI VIA THE CONSENSUS OF EXPERT MODEL ENSEMBLE

/
Der Consensus Mechanism ist ein neuartiger Ansatz zur Verbesserung der klinischen Entscheidungsfindung durch die Nutzung mehrerer spezialisierter medizinischer Expertenmodelle.
Artikelbild für den Artikel: Mixed-Chip-Cluster ermöglichen effizientes Training von KI-Modellen in großem Maßstab

Mixed-Chip-Cluster ermöglichen effizientes Training von KI-Modellen in großem Maßstab

/
Forscher aus Shanghai haben mit DiTorch und DiComm Technologien entwickelt, die eine einheitliche Programmierung über verschiedene Chip-Architekturen ermöglichen und das Training von großen KI-Modellen effizienter gestalten.
Artikelbild für den Artikel: Reinforcement Pre-Training: Ein neuer Ansatz für große Sprachmodelle

Reinforcement Pre-Training: Ein neuer Ansatz für große Sprachmodelle

/
Reinforcement Pre-Training (RPT) ist ein neues Skalierungsparadigma für große Sprachmodelle und Reinforcement Learning, das die Genauigkeit der Sprachmodellierung erheblich verbessert.
Artikelbild für den Artikel: JavelinGuard: Low-Cost Transformer-Architekturen für die Sicherheit von LLMs

JavelinGuard: Low-Cost Transformer-Architekturen für die Sicherheit von LLMs

/
JavelinGuard ist eine Suite von kostengünstigen, leistungsstarken Modellarchitekturen, die entwickelt wurden, um böswillige Absichten in Interaktionen mit großen Sprachmodellen zu erkennen.
Artikelbild für den Artikel: OpenAI's Open Model ist verzögert

OpenAI’s Open Model ist verzögert

/
OpenAI hat die Veröffentlichung seines ersten offenen Modells seit Jahren auf später im Sommer verschoben. CEO Sam Altman kündigte an, dass das Modell irgendwann nach Juni veröffentlicht wird, da das Forschungsteam unerwartete Fortschritte gemacht hat.