Beiträge

Artikelbild für den Artikel: Gedanken zum Ausbau der KI-Infrastruktur

Gedanken zum Ausbau der KI-Infrastruktur

/
In diesem Artikel wird die Vision von Sam Altman diskutiert, eine Fabrik zu schaffen, die wöchentlich ein Gigawatt neue KI-Infrastruktur produziert. Es werden die Herausforderungen und Möglichkeiten in Bezug auf Energieversorgung, Kapitalausgaben und den Wettbewerb zwischen den USA und China beleuchtet.
Artikelbild für den Artikel: Alibaba Cloud reduziert GPU-Nutzung um 82 % mit neuem Aegaeon-System

Alibaba Cloud reduziert GPU-Nutzung um 82 % mit neuem Aegaeon-System

/
Alibaba Cloud hat mit dem Aegaeon-System ein neues System vorgestellt, das die Nutzung von Nvidia-GPUs um 82 % senkt und die Effizienz von KI-Modellen erheblich steigert.
Artikelbild für den Artikel: Die erste Blackwell-Wafer-Produktion von NVIDIA in den USA

Die erste Blackwell-Wafer-Produktion von NVIDIA in den USA

/
NVIDIA hat den ersten Blackwell-Wafer in den USA hergestellt, was einen bedeutenden Schritt in der Chipproduktion darstellt. Die neuen Chips versprechen erhebliche Kosteneinsparungen und eine höhere Energieeffizienz, während die Verlagerung der Produktion in die USA auch geopolitische und wirtschaftliche Gründe hat.
Artikelbild für den Artikel: Wie Starcloud Datenzentren ins All bringt

Wie Starcloud Datenzentren ins All bringt

/
Starcloud plant, KI-ausgerüstete Satelliten zu starten, um Datenzentren im Weltraum zu etablieren. Diese Initiative zielt darauf ab, die Energiekosten um das 10-fache zu senken und die Nachhaltigkeit zu erhöhen.
Artikelbild für den Artikel: NVIDIA präsentiert seine Vision für Gigawatt-AI-Fabriken

NVIDIA präsentiert seine Vision für Gigawatt-AI-Fabriken

/
NVIDIA hat auf dem 2025 OCP Global Summit seine Vision für Gigawatt-AI-Fabriken vorgestellt, die auf der Vera Rubin-Architektur basieren. Diese Fabriken sollen die nächste Generation von KI-Modellen unterstützen und zeichnen sich durch Energieeffizienz und Modularität aus.
Artikelbild für den Artikel: InferenceMAX: Open Source Inference Benchmarking

InferenceMAX: Open Source Inference Benchmarking

/
InferenceMAX ist ein neues Open-Source-Benchmarking-Tool für KI-Chips, das Entwicklern und Forschern hilft, die Leistung von Inferenzmodellen in Echtzeit zu messen und zu vergleichen.
Artikelbild für den Artikel: InferenceMAX: Die Zukunft der Inferenz-Benchmarks in der KI-Industrie

InferenceMAX: Die Zukunft der Inferenz-Benchmarks in der KI-Industrie

/
InferenceMAX ist ein Open-Source-Projekt, das die Leistung von Inferenz-Frameworks kontinuierlich bewertet und die Bedeutung von transparenten Benchmarks in der KI-Industrie hervorhebt.
Artikelbild für den Artikel: Die großen Deals von OpenAI: AMD, Nvidia und die Zukunft der KI

Die großen Deals von OpenAI: AMD, Nvidia und die Zukunft der KI

/
OpenAI hat bedeutende Deals mit AMD und Nvidia abgeschlossen, die seine Infrastruktur stärken und die Zukunft der KI-Technologien beeinflussen werden.
Artikelbild für den Artikel: OpenAI plant weitere große Deals mit AMD und Nvidia

OpenAI plant weitere große Deals mit AMD und Nvidia

/
OpenAI plant weitere große Deals mit AMD und Nvidia, um die Infrastruktur für Künstliche Intelligenz auszubauen. CEO Sam Altman kündigt an, dass noch mehr Partnerschaften in der Pipeline sind.