Beiträge

LLM Kontextmanagement: Leistung verbessern und Kosten senken
/
0 Kommentare
Der Artikel behandelt das Kontextmanagement bei großen Sprachmodellen (LLMs) und wie man die Leistung verbessern und Kosten senken kann. Es werden Strategien zur Vermeidung von Kontextbloat und zur Optimierung der Token-Nutzung vorgestellt.

Das Kontextfenster-Problem: Skalierung von Agenten über Token-Grenzen hinaus
Dieser Artikel beleuchtet das Kontextfenster-Problem in großen Sprachmodellen und präsentiert Lösungen von Factory zur Verbesserung der Effizienz in der Softwareentwicklung.

ByteDance veröffentlicht das Open Source Modell Seed-OSS-36B mit 512K Token Kontext
ByteDance hat das Seed-OSS-36B Modell veröffentlicht, ein Open Source KI-Modell mit einer beeindruckenden Token-Kontextlänge von 512.000. Der Artikel behandelt die technischen Details, Leistungsmerkmale und die Lizenzierung des Modells.

Lemonade: Leistungsstarke lokale LLMs für Entwickler und Forscher
Lemonade ist ein leistungsstarker Server, der es Nutzern ermöglicht, lokale LLMs mit höchster Performance zu betreiben, indem er moderne Inferenz-Engines für NPUs und GPUs konfiguriert.

Haben LLMs einen guten Musikgeschmack?
Der Artikel untersucht, ob LLMs wie Claude einen guten Musikgeschmack haben, und beleuchtet die Vorlieben dieser Modelle sowie mögliche Verzerrungen im Reinforcement Learning.

AI-Traffic steigt um 527%: SEO wird neu geschrieben
Der Anstieg des AI-verursachten Webtraffics hat in den letzten Monaten eine bemerkenswerte Dynamik erreicht. Laut dem 2025 Previsible AI Traffic Report ist der Traffic, der von KI-Plattformen wie ChatGPT, Perplexity, Claude und anderen generiert wird, um erstaunliche 527% gestiegen.

Nexus – Der Open-Source AI Router für eine optimierte KI-Interaktion
Nexus ist ein leistungsstarker Open-Source AI Router, der entwickelt wurde, um die Interaktion von KI-Agenten mit verschiedenen MCP-Tools und großen Sprachmodellen zu optimieren.

LLMs als Teile von Systemen
Die Integration von Large Language Models in komplexe Systeme eröffnet neue Möglichkeiten für die Softwareentwicklung. In diesem Artikel wird die Bedeutung dieser Technologie als Teil eines größeren Systems hervorgehoben.

Von GPT-2 zu gpt-oss: Analyse der architektonischen Fortschritte
In diesem Artikel wird die Entwicklung von GPT-2 zu gpt-oss analysiert, wobei die architektonischen Fortschritte und technischen Optimierungen der neuen Modelle von OpenAI untersucht werden. Der Vergleich mit dem Qwen3-Modell und die Bedeutung der offenen Lizenzierung werden ebenfalls behandelt.