Artikelbild für den Artikel: Die wirtschaftlichen Aspekte von LLMs: Ein Blick auf die Unit Economics

Die wirtschaftlichen Aspekte von LLMs: Ein Blick auf die Unit Economics

In der Welt der Künstlichen Intelligenz (KI) sind Large Language Models (LLMs) zu einem zentralen Element geworden, das nicht nur technologische Fortschritte, sondern auch bedeutende wirtschaftliche Herausforderungen mit sich bringt. Unternehmen wie OpenAI und Anthropic stehen vor der Herausforderung, die Kosten für das Training dieser Modelle zu managen, während sie gleichzeitig versuchen, profitabel zu arbeiten. In diesem Artikel werfen wir einen detaillierten Blick auf die Unit Economics von LLMs und die verschiedenen Ansätze, die Unternehmen verfolgen, um die finanziellen Hürden zu überwinden.

1. Die Grundlagen der Unit Economics von LLMs

Das Geschäftsmodell von LLMs ist im Kern einfach, aber herausfordernd: Die meisten Kosten entstehen durch Rechenleistung, insbesondere durch das Training und die Inferenz der Modelle. Es wird angenommen, dass die Kosten für das Training jährlich um etwa das Fünffache steigen, während die Rendite auf die Trainingskosten bei etwa dem Doppelten liegt. Dies führt zu einer merkwürdigen Dynamik:

  • Jahr 1: Trainingskosten = 1
  • Jahr 2: Einnahmen = 2, aber Trainingskosten = 5
  • Netto: +2 – 5 = -3

Wenn wir diese Rechnung weiterführen, wird die Situation noch schwieriger:

  • Jahr 3: Einnahmen = 10, Trainingskosten = 25
  • Netto: -15

Die gegenwärtigen Modelle generieren also einen negativen Cashflow, der sich mit jeder Generation verschärft. Um diese Situation zu ändern, müssen zwei Dinge geschehen:

  1. Die Einnahmen müssen schneller wachsen als das Doppelte.
  2. Das Wachstum der Trainingskosten muss sich von 5x pro Jahr auf weniger als 2x verlangsamen.

2. Einblicke in die Zahlen von OpenAI und Anthropic

Die geleakten finanziellen Prognosen beider Unternehmen bestätigen dieses Modell. OpenAI plant, dass die gesamte Rechenkapazität nach 2028 nicht mehr wachsen wird. Dies bedeutet, dass die Margen sich verbessern, weil die Trainingskosten stagnieren. Dies entspricht dem Szenario B, das Dario Amodei, der CEO von Anthropic, skizziert hat.

Im Gegensatz dazu verfolgt Anthropic einen anderen Ansatz:

  • Sie gehen davon aus, dass die Rendite pro Modell jedes Jahr steigt. Aus 1 wird 5 anstelle von 2.
  • Das Wachstum der Rechenkosten ist ebenfalls gedämpft: von FY25 bis FY28 wird ein Anstieg von 3x erwartet, während OpenAI mit 8x rechnet.

3. Vergleich mit Netflix: Ein passendes Beispiel

In der Technologiebranche sind kapitalintensive Modelle selten, aber nicht unbekannt. Netflix ist ein gutes Beispiel: Über Jahre hinweg hatte das Unternehmen einen stark negativen Cashflow, der sich jährlich verschlechterte. Sie mussten im Voraus in Inhalte investieren, die über vier Jahre hinweg an Wert verloren. Diese Situation ähnelt stark den wirtschaftlichen Aspekten von Rechenzentren und dem Training von Modellen.

Ein entscheidender Wendepunkt für Netflix war die COVID-19-Pandemie, die die Produktion stoppte und die Ausgaben für Inhalte reduzierte. Dies führte zu einem sofortigen positiven Cashflow, als die Ausgaben nicht mehr exponentiell wuchsen.

4. Die Zukunft der LLMs: Wann werden die Margen steigen?

Es ist unwahrscheinlich, dass OpenAI oder Anthropic das Training ihrer Modelle vollständig einstellen werden. Aber sie müssen nicht ewig in exponentielles Wachstum investieren. Irgendwann wird die Rendite pro Modell steigen, oder es treten Skalierungsgrenzen auf, oder beides. Sobald die jährlichen Trainingsausgaben nicht mehr um das Fünffache steigen, werden die Gewinnmargen fast sofort sichtbar.

Die merkwürdige Realität der LLM-Ökonomie ist, dass sie ein „Burn Machine“ ist – bis sie es nicht mehr ist.

Quellenliste:

Dieser Artikel wurde mithilfe von KI verfasst und basiert auf automatisch gesammelten Informationen.
0 Kommentare

Hinterlasse einen Kommentar

An der Diskussion beteiligen?
Hinterlasse uns deinen Kommentar!

Schreibe einen Kommentar