Dabei soll eine neue Architektur mit zentraler Stromerzeugung durch 800-V-Hochspannungsgleichstrom (HVDC, high-voltage direct current) eingesetzt werden, teilten der deutsche und der US-Chiphersteller am Dienstag mit. «Damit ermöglichen wir eine schnellere, effizientere und skalierbarere KI-Rechenleistung», erklärte der zuständige Infineon-Manager Adam White. Durch den Ansatz sei Nvidia in der Lage, den Energieverbrauch der KI-Infrastruktur zu optimieren, wurde ihrerseits Gabriele Gorla von Nvidia zitiert.

Derzeit werden Rechenzentren den Angaben zufolge hauptsächlich durch dezentralen Wechselstrom versorgt. Dies geschieht über einzelne Netzteile in den Servern, die ihn dann in den von der Elektronik benötigten Gleichstrom umwandeln. Dies führt jedoch zu Verlusten bei der Stromübertragung und -umwandlung. Diese sollen durch die neue Technologie verringert werden. Schätzungen zufolge wird jedes Rack – die standardisierten Schränke, die die eigentliche Serverhardware aufnehmen – in Rechenzentren für Anwendungen in der Künstlichen Intelligenz (KI) bis Ende des Jahrzehnts ein Megawatt (MW) Strom verbrauchen. 

(Reuters)