Vergleich der KI-Modelle Claude Haiku 4.5, GLM-4.6 und GPT-5 Mini
In der heutigen Zeit, in der Künstliche Intelligenz (KI) immer mehr an Bedeutung gewinnt, stehen Entwickler vor der Herausforderung, die besten Tools für ihre Programmieraufgaben auszuwählen. In diesem Artikel vergleichen wir drei KI-Modelle: Claude Haiku 4.5, GLM-4.6 und GPT-5 Mini. Alle drei Modelle fallen in eine ähnliche Preiskategorie und wurden hinsichtlich ihrer Leistung bei Programmieraufgaben getestet.
Testaufbau
Um die Modelle zu vergleichen, haben wir Kilo Code in Ask Mode (optimiert für Q&A) verwendet, um einen einheitlichen Testprompt zu erstellen. Der Prompt war absichtlich klar und offen gestaltet, um zu evaluieren, wie die Modelle Anforderungen interpretieren und Prioritäten setzen. Hier ist der verwendete Prompt:
Erstelle ein Job-Queue-System in TypeScript, das SQLite als persistenten Speicher verwendet. Die Queue sollte Folgendes unterstützen:
1. Hinzufügen von Jobs zur Queue
2. Verarbeiten von Jobs aus der Queue
3. Planen von Jobs, die zu einem bestimmten zukünftigen Zeitpunkt ausgeführt werden (verzögerte Ausführung)
Deine Implementierung sollte grundlegende Queue-Operationen behandeln und sicherstellen, dass Jobs in der Datenbank gespeichert werden. Füge ein einfaches Beispiel hinzu, das zeigt, wie die Queue verwendet wird.
Für die Tests wechselten wir in den Code Mode von Kilo Code und führten denselben Prompt über alle drei Modelle aus. Jedes Modell startete mit einem identischen leeren Bun/SQLite/TypeScript-Projekt, um einheitliche Bedingungen zu gewährleisten.
Ergebnisse
Die Tests wurden mehrfach durchgeführt, und wir beobachteten konsistente Muster in den Ergebnissen.
Leistungsübersicht
- GPT-5 Mini: Benötigte etwa 6 Minuten und kostete $0.05. Es implementierte eine lease-basierte Sperrung und lieferte die stärksten Concurrency-Schutzmaßnahmen.
- Claude Haiku 4.5: War mit 3 Minuten am schnellsten und kostete $0.08. Es hatte die meisten Funktionen und keine Tool-Calling-Fehler.
- GLM-4.6: Produzierte eine Multi-File-Architektur, benötigte jedoch das Deaktivieren des Reasoning-Modus für Tool-Calls, was die Leistung beeinträchtigte. Die Testzeit betrug 4 Minuten bei Kosten von $0.14.
Schlussfolgerung
Jedes Modell hat unterschiedliche Kompromisse in unserem Job-Queue-Test gemacht:
- GPT-5 Mini ($0.05, 6 Minuten): Priorisierte Korrektheit und Sicherheit zu den niedrigsten Kosten. Es baute eine robuste Concurrency-Behandlung durch eine lease-basierte Sperrung auf.
- GLM 4.6 ($0.14, 4 Minuten): Fokussierte sich auf Architektur mit einer Multi-File-Struktur, hatte jedoch Sicherheitsmerkmale, die fehlten.
- Haiku 4.5 ($0.08, 3 Minuten): Balancierte Funktionen und Geschwindigkeit mit dem reichhaltigsten Funktionsset, hatte jedoch keine Concurrency-Kontrolle und blieb während der Tests manchmal in einer Schleife stecken.
Die Tests zeigen, dass es eine inverse Beziehung zwischen Kosten und Qualität gibt. Die Kosten spiegeln die tatsächlichen Ausgaben für die Durchführung dieser Aufgabe wider, nicht die Token-Raten. GPT-5 Mini lieferte den produktionsbereitesten Code, während GLM-4.6 die beste Architektur bot, aber Sicherheitsmerkmale vermisste. Haiku 4.5 bot die meisten Funktionen, jedoch ohne Concurrency-Kontrolle.
Quellenliste:
- Quelle: MINI MODELS BATTLE: CLAUDE HAIKU 4.5 VS GLM-4.6 VS GPT-5 MINI
- Claude Haiku 4.5 Performance
- Vergleich von Haiku 4.5, GLM 4.6 und GPT 5 Mini










Hinterlasse einen Kommentar
An der Diskussion beteiligen?Hinterlasse uns deinen Kommentar!