Beiträge

ScreenSuite: Die umfassendste Evaluationssuite für GUI-Agenten
/
0 Kommentare
ScreenSuite ist eine neue Benchmarking-Suite von Hugging Face, die einen standardisierten Rahmen zur Bewertung von Vision-Language-Modellen bei GUI-basierten Agenten bietet.

WEB BENCH – Eine neue Methode zur Bewertung von KI-Browser-Agenten
Web Bench ist ein neues Dataset zur Evaluierung von Web-Browsing-Agenten, das aus 5.750 Aufgaben auf 452 verschiedenen Websites besteht.

Google Open Sources LMEval für die Bewertung von Modellen über Anbieter hinweg
LMEval ist ein Open-Source-Framework von Google zur effizienten Bewertung von KI-Modellen über verschiedene Anbieter hinweg. Es bietet multimodale Unterstützung und inkrementelle Evaluierung, um die Herausforderungen der schnellen Modellbewertung zu meistern.

Benchmarking Audio-Visual QA mit Daily-Omni
Daily-Omni ist ein Benchmark und trainingsfreier Agent zur Evaluierung von Modellen, die ein synchronisiertes audio-visuelles Verständnis erfordern. Der Artikel beleuchtet die wichtigsten Aspekte und die Bedeutung von Daily-Omni für die Forschung.

Benchmarking Spatial Understanding in MLLMs: Einführung von SpatialScore
In diesem Artikel werfen wir einen Blick auf SpatialScore, eine neue Benchmark-Suite zur Evaluierung der 3D-Raumwahrnehmung in großen Modellen.

Die Herausforderung, schematische Bewertungen für LLMs realistisch zu gestalten
In der Welt der künstlichen Intelligenz ist es eine ständige Herausforderung, wie man große Sprachmodelle (LLMs) dazu bringt, in schematischen Bewertungen realistisch zu agieren. Ein kürzlich veröffentlichter Artikel beleuchtet diese Problematik und zeigt auf, dass es äußerst schwierig ist, LLMs davon zu überzeugen, dass sie sich in einer realen Situation und nicht in einer Bewertung befinden.

LM Arena sichert sich 100 Millionen Dollar bei einer Bewertung von 600 Millionen Dollar
LM Arena, eine crowdsourced AI-Benchmarking-Plattform, hat 100 Millionen Dollar in Seed-Finanzierung gesichert, was die Organisation mit 600 Millionen Dollar bewertet.

ARC-AGI-2: Die nächste Generation des KI-Reasoning Benchmarks
François Chollet und das ARC Prize-Team haben ARC-AGI-2 veröffentlicht, eine herausforderndere Version ihres Benchmarks für abstraktes Denken.

AI2s neues kleines KI-Modell übertrifft vergleichbare Modelle von Google und Meta
AI2 hat mit Olmo 2 1B ein neues KI-Modell vorgestellt, das in wichtigen Benchmarks besser abschneidet als vergleichbare Modelle von Google, Meta und Alibaba. Das Modell ist unter einer permissiven Lizenz verfügbar und kann auf weniger leistungsfähiger Hardware betrieben werden.