Beiträge

Artikelbild für den Artikel: Von Claude Code zu Agentic RAG

Von Claude Code zu Agentic RAG

/
In diesem Artikel erkunden wir die Grundlagen von Large Language Models (LLMs) und Retrieval-Augmented Generation (RAG) und beleuchten die Bedeutung eines LLM-nativen Index für Dokumente.
Artikelbild für den Artikel: Warum große Sprachmodelle beim Seepferdchen-Emoji durcheinander geraten

Warum große Sprachmodelle beim Seepferdchen-Emoji durcheinander geraten

/
In diesem Artikel wird das Phänomen untersucht, dass große Sprachmodelle wie GPT-5 und Claude 4.5 fälschlicherweise glauben, dass es ein Seepferdchen-Emoji gibt. Wir analysieren die Gründe für diese Fehlinformation und die Rolle von Emojis in der digitalen Kommunikation.
Artikelbild für den Artikel: Welches Tabellenformat verstehen LLMs am besten? Ergebnisse für 11 Formate

Welches Tabellenformat verstehen LLMs am besten? Ergebnisse für 11 Formate

/
Der Artikel untersucht, welches Tabellenformat von großen Sprachmodellen (LLMs) am besten verstanden wird und zeigt die Ergebnisse eines Experiments mit 11 verschiedenen Formaten.
Artikelbild für den Artikel: Die Debatte um Tiere und Geister in der KI-Forschung

Die Debatte um Tiere und Geister in der KI-Forschung

/
In der aktuellen Diskussion über die Entwicklung von Künstlicher Intelligenz wird oft ein faszinierendes Bild gezeichnet: Die Forschung ist nicht darauf ausgerichtet, Tiere zu erschaffen, sondern Geister zu beschwören. Dieser Artikel beleuchtet die Herausforderungen und die Komplexität der Entwicklung von LLMs im Vergleich zur tierischen Intelligenz.
Artikelbild für den Artikel: Einführung von Tunix: Eine JAX-native Bibliothek für das Post-Training von LLMs

Einführung von Tunix: Eine JAX-native Bibliothek für das Post-Training von LLMs

/
Tunix ist eine JAX-native Bibliothek, die den Übergang von vortrainierten Modellen zu produktionsbereiten großen Sprachmodellen vereinfacht. Sie bietet eine umfassende Suite von Algorithmen für das Post-Training und wird bereits von führenden Forschern genutzt.
Artikelbild für den Artikel: Computational Taste: LLMs, Ästhetik und Urteilskraft

Computational Taste: LLMs, Ästhetik und Urteilskraft

/
Der Artikel untersucht die Rolle von LLMs in der Geschmacksmodellierung und deren Auswirkungen auf verschiedene Bereiche wie Kunst, Marketing und soziale Medien. Es werden fünf Hauptanwendungsbereiche für LLMs vorgestellt, die die Zukunft des Geschmacks prägen könnten.
Artikelbild für den Artikel: Sampling und strukturierte Ausgaben in LLMs

Sampling und strukturierte Ausgaben in LLMs

/
Sampling ist ein entscheidender Prozess in der Textgenerierung von großen Sprachmodellen (LLMs). Dieser Artikel beleuchtet die verschiedenen Sampling-Techniken und deren Bedeutung für kreative und strukturierte Ausgaben.
Artikelbild für den Artikel: Die Kosten und Herausforderungen von Tool-Calls in LLMs

Die Kosten und Herausforderungen von Tool-Calls in LLMs

/
In diesem Artikel werden die Kosten und Herausforderungen von Tool-Calls in LLMs untersucht und wie Entwickler Agenten effizient gestalten können.
Artikelbild für den Artikel: Chinesische KI-Modelle und ihre Dominanz im offenen LLM-Markt

Chinesische KI-Modelle und ihre Dominanz im offenen LLM-Markt

/
Chinesische KI-Modelle dominieren den offenen LLM-Markt und stellen eine Herausforderung für US-Unternehmen dar. Dieser Artikel untersucht die Gründe für diese Entwicklung und ihre Auswirkungen auf die globale KI-Landschaft.