Oracle ist zu einem regelrechten KI-Powerhouse geworden! Ein neues Mega-Rechenzentrum befindet sich im Aufbau
Die Softwarezahlen von Oracle (aus seinen Datenbank- und Anwendungsprodukten) waren gut. Aber was die Wall Street wirklich begeistert hat, sind die Chancen und Entwicklungen im Geschäft mit der Oracle Cloud Infrastructure (OCI), das mit Amazon Web Services, Microsoft Azure und Google Cloud bei der Vermietung von Rechenkapazitäten an Unternehmen und Start-ups konkurriert. Im Quartal wuchs der Umsatz von OCI um 45 % auf 2,2 Mrd. USD, angetrieben durch die steigende Nachfrage nach Modelltraining für KI und KI-Workloads. Das übertrifft die jüngsten Wachstumsraten von 20 % bis 30 % seiner Cloud-Konkurrenten bei weitem, obwohl Oracle von einer kleineren Basis aus wächst.
Der KI-Boom wird weiter anhalten
Noch aufschlussreicher war der optimistische Kommentar von Oracle-Mitbegründer Larry Ellison zur KI-Nachfrage und zur Pipeline des Unternehmens. Ellison sagte, es gebe einige große Technologieunternehmen und möglicherweise sogar ein Land, die in den nächsten Jahren um die "technische Vorherrschaft" bei KI-Modellen kämpfen und dabei jeweils 100 Mrd. USD ausgeben würden. Weiterhin gebe es keine Anzeichen dafür, dass der KI-Boom in absehbarer Zeit nachlassen werde, sagte er. "Wenn Ihr Horizont die nächsten fünf Jahre, vielleicht sogar die nächsten zehn Jahre umfasst, würde ich mir keine Sorgen machen", sagte Ellison während der Gewinnbesprechung des Unternehmens. "Dieses Geschäft wird einfach immer größer und größer und größer. Es ist keine Verlangsamung oder Veränderung in Sicht."
Oracle baut an einem 800 MW-Rechenzentrum
Die Nachfrage ist so stark, dass andere Cloud-Marktführer sich anmelden, um die KI-Rechenkapazität von Oracle zu nutzen, obwohl sie über eigene Rechenzentren verfügen. Im Juni kündigten Microsoft und OpenAI an, dass sie OCI für KI-Workloads verwenden würden. Und Oracle geht bei der KI voll aufs Ganze. Im wahrsten Sinne des Wortes. Erstens sagte Ellison, dass Oracle derzeit ein 800-Megawatt-Rechenzentrum baut, das "Hektar von Nvidia-GPU-Clustern" enthalten soll, die zum Trainieren eines der weltweit größten KI-Modelle verwendet werden. Das Unternehmen befindet sich auch schon in der Entwurfsphase für ein weiteres Rechenzentrum, das über ein Gigawatt Strom benötigt und Kernreaktoren zur Stromversorgung nutzt. Hierfür verfügt man bereits über Baugenehmigungen für drei kleine modulare Kernreaktoren (SMRs). Zur Einordnung: Meta-CEO Mark Zuckerberg sagte Anfang des Jahres, dass eines Tages Gigawatt-Rechenzentren gebaut werden würden, im Gegensatz zu den aktuellen Rechenzentren, die etwa 50 Megawatt Strom verbrauchen.
Nvidia unterstützt beim Aufbau des Megaprojekts
Die vielleicht größte Neuigkeit von allen ist, dass Oracles KI-Infrastrukturbemühungen die volle Unterstützung von Nvidia haben. Die beiden Unternehmen kündigten auf der Oracle CloudWorld-Konferenz an, dass OCI den größten GPU-Rechencluster aller Zeiten einsetzen werde, der in der 1. Hälfte des Jahres 2025 verfügbar sein und bis zu 131.072 Nvidia Blackwell-GPUs für Kunden zum Trainieren und Ausführen von KI-Workloads bereitstellen werde. Oracle erklärte, der Cluster werde sechsmal größer sein als das, was bei anderen Cloud-Computing-Unternehmen verfügbar ist. Meta im Vergleich hat sein neuestes Llama 3-Modell bspw. mit nur 16.000 Nvidia-GPUs trainiert. Microsoft, Amazon und Google hatten jahrelang die öffentliche Cloud für sich allein. Jetzt ist Oracle mit von der Partie.
Bildherkunft: AdobeStock_474616424