Der H100-Rechenzentrumschip hat den Wert von Nvidia um mehr als 1 Billion Dollar gesteigert und das Unternehmen über Nacht zum KI-König gemacht. Das Kursplus auf Jahressicht beträgt 237 Prozent. Der Chip hat den Anlegern gezeigt, dass sich der Hype um generative künstliche Intelligenz in echte Einnahmen verwandelt, zumindest für Nvidia und seine wichtigsten Zulieferer. Die Nachfrage nach dem H100 ist so gross, dass einige Kunden bis zu sechs Monate auf das Gerät warten müssen.

1. Was ist der H100-Chip von Nvidia?

Der H100, dessen Name eine Anspielung auf die Informatik-Pionierin Grace Hopper ist, ist ein Grafikprozessor. Es handelt sich um eine leistungsstärkere Version eines Chips, der normalerweise in PCs verbaut wird und Gamern zu einem möglichst realistischen visuellen Erlebnis verhilft. Er wurde jedoch für die Verarbeitung riesiger Datenmengen und Berechnungen mit hoher Geschwindigkeit optimiert und eignet sich daher perfekt für die leistungsintensive Aufgabe des Trainings von KI-Modellen. Das 1993 gegründete Unternehmen Nvidia leistete mit Investitionen, die fast zwei Jahrzehnte zurückreichen, Pionierarbeit auf diesem Markt und wettete darauf, dass die Fähigkeit zur Parallelverarbeitung seine Chips eines Tages auch für Anwendungen ausserhalb von Games wertvoll machen würde.

2. Warum ist der H100 so besonders?

Generative KI-Plattformen lernen, Aufgaben wie das Übersetzen von Texten, das Zusammenfassen von Berichten und das Synthetisieren von Bildern zu bewältigen, indem sie mit riesigen Mengen an bereits vorhandenem Material trainieren. Je mehr sie sehen, desto besser werden sie in Dingen wie der Erkennung menschlicher Sprache oder dem Schreiben von Bewerbungen. Sie entwickeln sich durch Versuch und Irrtum, machen Milliarden von Versuchen, um ihre Fähigkeiten zu verbessern, und verbrauchen dabei riesige Mengen an Rechenleistung. Laut Nvidia ist der H100 viermal schneller als sein Vorgänger, der A100, beim Trainieren dieser so genannten grossen Sprachmodelle (Large Language Models, LLMs) und antwortet 30-mal schneller auf Benutzeraufforderungen. Für Unternehmen, die LLMs für neue Aufgaben trainieren wollen, kann dieser Leistungsvorsprung entscheidend sein.

3. Wie wurde Nvidia zu einem führenden Unternehmen im Bereich KI?

Das Unternehmen aus Santa Clara, Kalifornien, ist weltweit führend auf dem Gebiet der Grafikchips, das heisst der Bits eines Computers, die die Bilder erzeugen, die Sie auf dem Bildschirm sehen. Die leistungsstärksten dieser Chips sind mit Hunderten von Rechenkernen ausgestattet, die gleichzeitig mehrere Berechnungen durchführen und komplexe physikalische Vorgänge wie Schatten und Reflexionen modellieren. Die Ingenieure von Nvidia erkannten in den frühen 2000er Jahren, dass sie Grafikbeschleuniger für andere Anwendungen umrüsten können, indem sie Aufgaben in kleinere Teile aufteilen und diese dann gleichzeitig bearbeiten. Vor etwas mehr als einem Jahrzehnt entdeckten KI-Forscher, dass ihre Arbeit mit dieser Art von Chips endlich in die Praxis umgesetzt werden kann.

4. Hat Nvidia echte Konkurrenten?

Nvidia kontrolliert etwa 80 Prozent des Marktes für Beschleuniger in den KI-Rechenzentren, die von Amazons AWS, Alphabets Google Cloud und Microsofts Azure betrieben werden. Die internen Bemühungen dieser Unternehmen, ihre eigenen Chips zu bauen, und konkurrierende Produkte von Chipherstellern wie Advanced Micro Devices und Intel haben bisher keinen grossen Eindruck auf dem KI-Markt hinterlassen.

5. Wie bleibt Nvidia seinen Konkurrenten voraus?

Nvidia hat seine Angebote, einschliesslich der Software zur Unterstützung der Hardware, in einem Tempo aktualisiert, mit dem bisher kein anderes Unternehmen mithalten konnte. Das Unternehmen hat ausserdem verschiedene Clustersysteme entwickelt, die es seinen Kunden ermöglichen, H100-Rechner in grossen Mengen zu kaufen und sie schnell einzusetzen. Chips wie die Xeon-Prozessoren von Intel sind zwar in der Lage, komplexere Daten zu verarbeiten, verfügen aber über weniger Kerne und sind viel langsamer bei der Verarbeitung der Datenmengen, die typischerweise zum Trainieren von KI-Software verwendet werden. Die Rechenzentrumssparte von Nvidia verzeichnete im letzten Quartal 2023 einen Umsatzanstieg von 81 Prozent auf 22 Milliarden Dollar.

6. Wie schneiden AMD und Intel im Vergleich zu Nvidia ab?

AMD, der zweitgrösste Hersteller von Computergrafikchips, stellte im Juni eine Version seiner Instinct-Reihe vor, die auf den Markt abzielt, den Nvidia-Produkte dominieren. Der Chip mit der Bezeichnung MI300X verfügt über mehr Speicher, um Arbeitslasten für generative KI zu bewältigen, sagte AMD Chief Executive Officer Lisa Su auf einer Veranstaltung in San Francisco. "Wir befinden uns noch sehr, sehr früh im Lebenszyklus der KI", sagte sie im Dezember. Intel bringt spezielle Chips für KI-Workloads auf den Markt, räumte aber ein, dass die Nachfrage nach Grafikchips für Rechenzentren derzeit schneller wächst als die nach Prozessoren, die traditionell seine Stärke sind. Der Vorteil von Nvidia liegt nicht nur in der Leistung seiner Hardware. Das Unternehmen hat CUDA erfunden, eine Sprache für seine Grafikchips, mit der sie für die Art von Arbeit programmiert werden können, die KI-Programmen zugrunde liegt.

7. Was plant Nvidia als nächstes zu veröffentlichen?

Später in diesem Jahr wird die H100 die Fackel an ihren Nachfolger, die H200, weiterreichen, bevor Nvidia später mit dem B100-Modell grössere Änderungen an der Konstruktion vornimmt. CEO Jensen Huang hat als Botschafter für die Technologie fungiert und versucht, Regierungen und Privatunternehmen dazu zu bewegen, frühzeitig zu kaufen, um nicht Gefahr zu laufen, von denjenigen, die KI einsetzen, abgehängt zu werden. Nvidia weiss auch, dass es für das Unternehmen viel einfacher sein wird, Upgrades zu verkaufen, wenn sich die Kunden erst einmal für seine Technologie, für ihre generativen KI-Projekte entschieden haben. 

(Bloomberg/cash)