Blackwell Ultra und Vera Rubin sind die neuesten KI-Chips von Nvidia! Kooperationen mit GM und IBM auf der GTC 2025 verkündet!
Jensen Huang, der CEO des KI-Chipherstellers Nvidia (NVDA), eröffnete die mit Spannung erwartete jährliche GTC-Veranstaltung in San José. Das Event zieht bis zu 25.000 Besucher an und gilt als der "Super Bowl der KI". Die 4-tägige Konferenz gilt oft als Wendepunkt für Technologieaktien, da die KI-Revolution im Fokus steht.
Generative KI benötigte zum Training der Modelle die KI-Chips von Nvidia
Bereits in seiner Keynote ging der Chef des Technologiegiganten auf ein breites Themenspektrum ein und hob die beeindruckende Leistung und Geschwindigkeit der Künstlichen Intelligenz hervor, mit der es die Technologie geschafft hat unsere Welt in den letzten Jahren zu verändern. Die generative KI hat Einzug in Computersysteme und Anwendungen gefunden und durch seine außergewöhnlichen Fortschritte die Art und Weise verändert, wie wir unsere täglichen Aufgaben bewältigen. Am Anfang stand das Training der verschiedensten KI-Modelle wie ChatGPT von OpenAI, Gemini von Googles DeepMind, Grok von xAI, Claude von Anthropic, Llama von Meta, R1 von DeepSeek, Ernie von Baidu oder Qwen von Alibaba. Immer mehr Anbieter entwickeln eigene Large Language Models und wollen am KI-Rennen teilhaben. Davon konnte Nvidia mit seinen KI-Chips profitieren, die man für die Entwicklung der Modelle benötigt.
KI-Agenten benötigen 100-mal mehr Rechenleistung und treiben die Verkäufe an
Der nächste große Schritt der KI-Systeme sind der Aufstieg der KI-Agenten, die durch den Einsatz der verschiedenen LLM-Modelle, Datensätzen und implementierten Prozessabläufen in den Unternehmen selbstständig Aufgaben bearbeiten können, Ziele verfolgen und effiziente Entscheidungen treffen sollen. Durch den mehrstufigen Prozess und den schier endlosen Szenarien und Anwendungsmöglichkeiten, soll dieser Bereich laut Nvidias-CEO 100-mal mehr Rechenleistung erfordern als man noch im letzten Jahr angenommen hat. Alle großen Cloud-Dienstleister wie Amazon Web Services, Microsoft Azure, Google Cloud Plattform und Oracle Cloud wollen weiterhin hohe Milliardenbeträge in den Ausbau der KI-Infrastruktur stecken, um der Nachfrage in Zukunft gerecht werden zu können. Die Investitionssumme dürfte schon in diesem Jahrzehnt die 1 Bio. USD-Marke übersteigen. Dies belegen auch die Verkaufszahlen von Nvidias GPUs. Während im letzten Jahr 1,3 Mio. Hopper-GPUs gekauft wurden, belaufen sich die Stückzahlen seiner fortschrittlichen Blackwell GPUs auf 3,6 Mio. und das, obwohl der Verkauf erst seit Ende 2024 läuft.
Blackwell Ultra und Vera Rubin sind die KI-Chips der neuesten Generation
Huang enthüllte die nächsten beiden Generationen von Nvidias KI-Chips. Blackwell Ultra wird noch in der zweiten Jahreshälfte 2025 erscheinen und soll über mehr Speicher und doppelter Bandbreite gegenüber seinem Vorgängermodell Blackwell besitzen. Laut Nvidia bietet der GB300 NVL72 die 1,5-fache KI-Leistung des aktuellen GB200 NVL72. Im darauffolgenden Jahr 2026 soll die viel spekulierte GPU namens Rubin mit HBM-4-Speicher auf den Markt kommen und bereits eine dreifache Leistung im Vergleich zu Blackwell Ultra besitzen. Vera wird ein Arm-basierter CPU-Chip, der das Herzstück eines Nvidia KI-Servers bildet und die Grace-CPU mit einer doppelten Leistung ersetzen soll. Rubin Ultra ist für die zweite Jahreshälfte 2027 geplant und soll 15-mal mehr Exaflops für Interferenzen bieten, davon 5 Exaflops für das Training von Modellen. Die Rubin Generation soll in der Lage sein, die Kosten deutlich zu senken. Die dritte Generation der KI-Chips wird nach dem theoretischen Physiker Richard Feynman benannt und frühestens 2028 verfügbar sein. Nvidia hat mit Grace Blackwell eine Architektur entwickelt, die es Forschern ermöglicht Prototypen zu erstellen, Modelle zu optimieren und Systeme zu testen. Nun soll eine verteilte Interferenzbibliothek namens Nvidia Dynamo, die im Prinzip als Betriebssystem fungiert, durch seine Planungs- und Vorfüllaktivität einen großen Sprung in der Interferenzleistung bringen und Blackwell zu einem weiteren Boost verhelfen können.
Neue CUDA-Bibliotheken, Photonik-Netzwerk-Switches und KI-Desktop-PCs
Die KI befindet sich am Wendepunkt und immer mehr Wissenschaftsbereiche wie Quantencomputing, Materialwissenschaften, Physik, 5G- und 6G-Kommunikation und Gensequenzierung verwenden die Errungenschaften der KI, um schnellere und bahnbrechendere Ergebnisse zu erzielen. Nvidia besitzt mit seinen CUDA-X-Bibliotheken eine Rechenplattform und entsprechende Programmiermodelle, die mit Hilfe der GPU-Leistung Entwicklungsarbeiten beschleunigen soll. Die cuDSS erweitert diese Reihe als Sparse-Direct-Solver-Bibliothek und soll computergestütztes Engineering ermöglichen. Ansys und Cadence Design Systems verwenden die CUDA-Software bereits, um technische Simulationsprobleme und Designoptimierungen zu berechnen. Nvidia stellte außerdem seine neuen Netzwerk-Switches für Hochgeschwindigkeitsanwendungen in Rechenzentren vor. Spectrum-X und Quantum-X basieren auf einer Siliziumphotonik und sind dadurch deutlich energieeffizienter als optische Switches. Quantum-X wurde gemeinsam mit Taiwan Semiconductor entwickelt und wird noch 2025 verfügbar sein. Nvidia möchte mit den beiden KI-Desktop-PCs DGX Spark und DGX Station das High-End-Segment erobern. Spark verwendet einen GB10 und Station einen GB300 KI-Chip, beides Modelle, die auf der Grace-Blackwell-Architektur basieren. Die Desktop-PCs werden unter anderem von ASUS, Dell und HP vertrieben werden.
Robotik könnte die nächste große Branche werden
Nvidia präsentierte mit Groot N1 ein grundlegendes Open-Source-Modell, das humanoiden Robotern generalisierte Fähigkeiten und logisches Denken ermöglichen soll. Physische KI und Robotik entwickelt sich mit einem rasanten Tempo und könnte laut Huang zur nächsten großen Branche überhaupt werden. Nvidia hat in einem Kooperationsprojekt namens Newton eine Open-Source-Physik-Engine mit Google DeepMind und Disney Research entwickelt. Jensen Huang präsentierte auf der GTC den Roboter Blue, das Ergebnis der Zusammenarbeit der drei Unternehmen.
KI-Partnerschaften mit GM und IBM angekündigt
Im Rahmen seiner Keynote kündigte Huang mehrere neue Partnerschaften an, die man in letzter Zeit schließen konnte. Unter anderem wird man mit dem Automobilhersteller GM an seiner nächsten Generation selbstfahrender Fahrzeuge, Roboter und KI-optimierten Fabriken gemeinsam arbeiten. GM wird die benötigten KI-Fertigungsmodelle mit Nvidias Omniverse trainieren und Robotik in der Fabrikplanung einsetzen. Im Bereich des autonomen Fahrens vertraut der Autobauer bei seiner zukünftigen Flotte auf Nvidias Drive-AGX-System. IBM hat sich ebenfalls für eine Kooperation mit Nvidia entschieden und will die Nvidia AI-Datenplattformtechnologien nutzen, um KI im großen Maßstab zu beschleunigen. IBM möchte eine inhaltsbasierte Speicherfunktion für seine Hybrid-Cloud-Infrastruktur Fusion einführen, seine Watsonx-Integrationen erweitern und neue Consulting-Funktionen mit Nvidia einführen. Die neuen Lösungsansätze werden die Referenzarchitekturen der Nvidia AI Data Plattform nutzen. Neben diesen beiden Partnerschaften wurden noch weitere mit Cisco, T-Mobile US, Micron, GE Healthcare und ServiceNow angekündigt.
Bildherkunft: AdobeStock_1224676477