Artikelbild für den Artikel: Die komplexe Beziehung zwischen NVIDIA, OpenAI und Oracle

Die komplexe Beziehung zwischen NVIDIA, OpenAI und Oracle

Nvidia, OpenAI und Oracle stehen untereinander in einem Spannungsfeld, das sowohl von Zusammenarbeit als auch von Konkurrenz geprägt ist. In den letzten Tagen habe ich mich intensiv mit dem Q3-Gewinnbericht von NVIDIA beschäftigt, der einige interessante Einblicke in die Dynamik dieser Beziehungen bietet.

NVIDIA’s Earnings: Perfektion mit einem Hauch von Stress

Auf den ersten Blick scheint NVIDIA die unangefochtene Herrscherin der KI-Ära zu sein. Der Umsatz stieg um 62 % auf 57 Milliarden Dollar, und CEO Jensen Huang spricht von einem „virtuosen Zyklus der KI“. Doch bei näherer Betrachtung der Finanzzahlen fallen einige rote Flaggen auf:

  • Das Cashflow-Mysterium: NVIDIA meldete einen Nettogewinn von 31,9 Milliarden Dollar, aber der operative Cashflow betrug nur 23,8 Milliarden Dollar. Dies hinterlässt eine Lücke von 8 Milliarden Dollar, in der Gewinne nicht sofort in Bargeld umgewandelt werden.
  • Die Lagerbestandsblase: Die Lagerbestände haben sich in diesem Jahr nahezu verdoppelt und belaufen sich nun auf 19,8 Milliarden Dollar. Das Management führt dies auf die Vorbereitung für den Launch der Blackwell-Architektur zurück, doch 120 Tage Lagerhaltung scheinen mir ein erheblicher Kapitaldruck zu sein.
  • Die „Papier“-Verfolgung: Die Days Sales Outstanding (DSO) haben sich auf etwa 53 Tage erhöht. Dies deutet darauf hin, dass NVIDIA ihren Unternehmenskunden großzügige Kreditbedingungen gewährt, um das Geschäft am Laufen zu halten.

Mein persönlicher Eindruck? NVIDIA setzt alles auf die Blackwell-Architektur und hofft, dass diese im vierten Quartal sofort ausverkauft sein wird.

Die Sinnhaftigkeit der Rundlauf-Nachrichten

Ein weiterer Punkt, der in den Finanznachrichten viel diskutiert wird, ist das Konzept des „circular financing“, das von Michael Burry (bekannt aus „The Big Short“) angesprochen wurde. Die Theorie besagt, dass es eine „Web“ von Geschäften gibt, die wie folgt aussieht:

  1. Bein 1: NVIDIA verpflichtet sich zu Milliardeninvestitionen (Teil eines 100-Milliarden-Dollar-Investitionsplans) in OpenAI.
  2. Bein 2: OpenAI unterzeichnet einen massiven 300-Milliarden-Dollar-Cloud-Vertrag mit Oracle (Projekt Stargate), um ihre Modelle zu hosten.
  3. Bein 3: Um diesen Vertrag zu erfüllen, bestellt Oracle Chips im Wert von 40 Milliarden Dollar bei NVIDIA.

Burrys Argumentation und die Gründe, warum Regulierungsbehörden wie das DOJ dies untersuchen, sind, dass dies „Round-Tripping“ nachahmt. Dies wirft die Frage auf: Wenn NVIDIA aufhören würde, in OpenAI zu investieren, hätte OpenAI dann noch die Mittel, um den Vertrag mit Oracle zu unterzeichnen? Und würde Oracle dann noch diese Chips kaufen?

OpenAI macht Schritte zur Reduzierung der Abhängigkeit von NVIDIA

Ein weiterer großer Wandel, den ich beobachte, ist der Kurswechsel von OpenAI. Früher war OpenAI der Star von NVIDIA, doch jetzt sieht es mehr nach einem zukünftigen Rivalen aus. Auf der einen Seite setzen sie auf NVIDIA und nutzen 10 Gigawatt Infrastruktur, um GPT-6 zu trainieren. Auf der anderen Seite scheinen sie eine Lieferkette aufzubauen, um ihre Abhängigkeit von Jensen Huang zu verringern.

Die Beweise sind deutlich, wenn man genau hinschaut. Das „Projekt Stargate“ ist nicht nur ein Rechenzentrum; es handelt sich um einen großen Infrastrukturplan, der maßgeschneiderte Hardware umfasst. OpenAI hat kürzlich DRAM-Wafer direkt von Samsung und SK Hynix gekauft, wodurch sie die Lieferkette von NVIDIA umgehen.

Zusätzlich gibt es eine signifikante Talentmigration: OpenAI hat Schlüsselkräfte, darunter Richard Ho (ehemaliger TPU-Leiter bei Google), sowie viele Hardware-Ingenieure von Apple abgeworben.

Mit der Partnerschaft mit Broadcom könnte OpenAI planen, NVIDIA-GPUs zu verwenden, um Intelligenz zu schaffen, diese jedoch auf eigener maßgeschneiderter Hardware zu betreiben, um Geld zu sparen.

Eine interessante Idee für Oracle: Übernahme von Groq

Aktuell wird viel über die Kosten für Inferenz gesprochen, also wie teuer es ist, ChatGPT oder andere LLMs tatsächlich zu betreiben. Hier kommt Groq, ein Startup, ins Spiel, das behauptet, schneller und günstiger als NVIDIA zu sein. Der Gründer, Jonathan Ross, ist ein ehemaliger TPU-Leiter bei Google und hat die Idee für TPU maßgeblich geprägt.

Ein weiterer Aspekt, der oft übersehen wird, ist der HBM-Mangel, der durch OpenAIs direkte Waferkäufe verursacht wurde. NVIDIA hat derzeit mit Engpässen bei HBM (High Bandwidth Memory) zu kämpfen, die in spezialisierten Fabriken hergestellt werden. Im Gegensatz dazu basiert die Architektur von Groq auf SRAM (Static RAM), das typischerweise in Logikfabriken (wie TSMC) zusammen mit den Prozessoren hergestellt wird und theoretisch nicht denselben Lieferengpass wie HBM haben sollte.

Wenn Oracle Groq übernimmt, könnte dies nicht nur einen schnelleren Chip liefern, sondern auch einen, der tatsächlich verfügbar ist, wenn alles andere ausverkauft ist. Dies wäre eine strategische Absicherung gegen Lieferengpässe.

Abschließende Gedanken

Wenn wir auf 2026 zusteuern und die Dynamik zwischen NVIDIA, OpenAI und Oracle betrachten, sieht es so aus, als würden sie sich gegenseitig unter Druck setzen. Ich bin mir nicht sicher, ob NVIDIA über den Deal von OpenAI bezüglich der Wafer-Versorgung informiert war oder ob es eine Art Kollusion gab. Kämpft NVIDIA darum, die Exklusivität sowohl für das Training als auch für die Inferenz bei Stargate zu wahren? Welche Art von Chips plant OpenAI zu entwickeln? TPU/LPU-ähnliche? Oder mehr Edge-TPU?

Die nächsten Quartale werden spannend zu beobachten sein, da der KI-Hardware-Markt heißer ist als je zuvor.

Quellenliste:

Dieser Artikel wurde mithilfe von KI verfasst und basiert auf automatisch gesammelten Informationen.
0 Kommentare

Hinterlasse einen Kommentar

An der Diskussion beteiligen?
Hinterlasse uns deinen Kommentar!

Schreibe einen Kommentar