
LM Arena sichert sich 100 Millionen Dollar bei einer Bewertung von 600 Millionen Dollar
/
0 Kommentare
LM Arena, eine crowdsourced AI-Benchmarking-Plattform, hat 100 Millionen Dollar in Seed-Finanzierung gesichert, was die Organisation mit 600 Millionen Dollar bewertet.

POE REPORT: RAPID SHIFTS IN AI MODEL MARKET SHARE
Ein Bericht von Poe zeigt dramatische Veränderungen in der Nutzung von KI-Modellen von Januar bis Mai 2025, mit OpenAI's GPT-4.1 und Google's Gemini 2.5 Pro, die schnell an Beliebtheit gewinnen.

Die umfassende Übersicht über Reinforcement Learning
Kevin Murphy hat sein Lehrbuch über Reinforcement Learning aktualisiert, das traditionelle Ansätze und moderne Entwicklungen wie DPO und GPRO behandelt.

ARC-AGI-2: Die nächste Generation des KI-Reasoning Benchmarks
François Chollet und das ARC Prize-Team haben ARC-AGI-2 veröffentlicht, eine herausforderndere Version ihres Benchmarks für abstraktes Denken.

IMAGEN 4, VEO 3 und LYRIA 2: Die nächste Welle generativer KI-Modelle von Google
Die neuen generativen KI-Modelle von Google, Imagen 4, Veo 3 und Lyria 2, revolutionieren die Erstellung von Bildern, Videos und Musik auf Vertex AI.

GOOGLE’S ‘JULES’ ENTERS AI CODING RACE WITH AUTONOMOUS AGENT APPROACH
Google hat seinen autonomen Coding-Agenten Jules der Öffentlichkeit zugänglich gemacht. Das Tool nutzt KI, um Entwickler bei der Programmierung zu unterstützen, indem es Tests schreibt, Bugs behebt und neue Funktionen entwickelt.

EXCLUSIVE: GOOGLE SEES SMART GLASSES AS THE ‘NEXT FRONTIER’ FOR AI
Google kehrt mit Android XR in den Bereich der Smart Glasses zurück und integriert seine Gemini AI, um eine Echtzeitanalyse von Bildern, Übersetzungen und kontextuelle Unterstützung durch AR-Brillen zu bieten.

KumoRFM: Das Relationale Foundation Model für Unternehmensdaten
KumoRFM ist ein relationales Foundation Model, das ohne aufgabenspezifische Schulung präzise Vorhersagen über relationale Datenbanken ermöglicht und die Effizienz in der Datenanalyse revolutioniert.

DeepSeek-V3: Einblicke in Hardware-Modell-Co-Design
Die Forscher von DeepSeek haben Einblicke aus DeepSeek-V3 als Fallstudie im Bereich Hardware-Modell-Co-Design geteilt. Diese Studie beleuchtet die Herausforderungen, die beim Skalieren großer Sprachmodelle (LLMs) auftreten, und bietet Lösungen, die durch eine enge Zusammenarbeit zwischen Hardware und Software erreicht werden können.
