Drei Jahre nach dem KI-Boom ist sich die Wall Street uneins, ob künstliche Intelligenz die Wirtschaft zu stark oder nicht disruptiv genug ist. Denn trotz der Fortschritte und wachsender Akzeptanz von KI bei Unternehmen ist ungewiss, ob die finanziellen Erträge die enormen Kosten rechtfertigen werden, die für die Entwicklung dieser Dienste anfallen.
Tech-Giganten und führende KI-Startups planen, Milliarden – wenn nicht Billionen – Dollar in Chips, Rechenzentren, Strom und Fachkräfte zu investieren, um ihre ehrgeizigen Ziele zu erreichen. Selbst die Wirtschaftsentwicklung der USA könnte davon abhängen, da Investitionen in Rechenzentren laut Schätzungen bereits heute ein wichtiger Wachstumstreiber sind.
Macht KI bereits Gewinne?
Die Nutzerbasis von KI wächst rasant, da immer mehr Menschen die Technologie in ihren Alltag integrieren. ChatGPT von OpenAI verzeichnete Ende Februar über 900 Millionen wöchentliche Nutzerinnen und Nutzer, während Googles Gemini-App auf mehr als 750 Millionen kam – ein Anstieg von 400 Millionen im Mai 2025.
Auch die Umsätze von OpenAI und Anthropic schiessen in die Höhe. OpenAIs jährlicher Umsatz überstieg 2025 die 20-Milliarden-Dollar-Marke (2024 waren es noch und 6 Milliarden), wie CFO Sarah Friar bekannt gab. Anthropic liegt laut Insiderangaben auf Kurs, fast 20 Milliarden US-Dollar Jahresumsatz zu erzielen – basierend auf der aktuellen Performance.
Wann wird sich das alles auszahlen?
Obwohl die Umsätze steigen, explodieren die Kosten. Der Betrieb der grossen Sprachmodelle, die die neue KI-Generation antreiben, erfordert hunderttausende Hochleistungs-Chips in stromfressenden Rechenzentren.
Die vier grössten Tech-Konzerne – Alphabet, Meta, Microsoft und Amazon – planen für 2026 gemeinsame Investitionen von rund 650 Milliarden US-Dollar, vor allem in KI. OpenAI hat zugesagt, in den kommenden Jahren mehr als 1,4 Billionen US-Dollar in seine Infrastruktur zu stecken, während Anthropic 50 Milliarden US-Dollar für den Bau eigener Rechenzentren in den USA veranschlagt.
Die Beratungsfirma Bain schätzte 2025, dass die Branche bis 2030 kombinierte Jahresumsätze von etwa 2 Billionen US-Dollar benötigen wird, um die notwendige Rechenleistung für die prognostizierte KI-Nachfrage zu finanzieren. Doch sie erwartete, dass die tatsächlichen Umsätze um 800 Milliarden US-Dollar darunter bleiben werden. Die langfristige Hoffnung der Branche ruht auf fortschrittlicherer KI-Software, darunter sogenannten «Agents», die wirtschaftlich wertvollere Aufgaben automatisieren und Unternehmen so überzeugen könnten, mehr Budget in solche Tools zu stecken.
Was könnte schiefgehen?
Die Risiken lassen sich in zwei Kategorien einteilen: Erstens die schiere Dimension der Investitionen und die physischen sowie regulatorischen Hürden, die mit der rasanten Expansion der KI-Rechenkapazitäten einhergehen. Zweitens die Frage, ob KI-Unternehmen ihre hochgesteckten Versprechungen erfüllen können – sowohl in Bezug auf die Fähigkeiten der Technologie als auch auf die Bereitschaft der Nutzer, langfristig dafür zu zahlen.
Immer mehr Tech-Unternehmen finanzieren den massiven Ausbau der KI-Infrastruktur mit Krediten. Morgan Stanley erwartet, dass die Schuldenaufnahme der grossen Cloud-Anbieter (sogenannte «Hyperscaler») in diesem Jahr 400 Milliarden US-Dollar erreichen wird – nach 165 Milliarden im Jahr 2025. Das ist eine beispiellose Verpflichtung für eine Branche, die ihre Investitionen bisher meist aus eigenen Gewinnen finanzierte.
Gleichzeitig binden sich Chiphersteller und Cloud-Anbieter wie Nvidia, Microsoft und Amazon durch kreisförmige Geschäfte immer enger an noch nicht profitable KI-Entwickler wie OpenAI und Anthropic. Diese wechselseitigen Abhängigkeiten sollen zwar den Ausbau der gesamten Branche vorantreiben, bergen aber das Risiko, dass Verluste verstärkt werden, falls die Nachfrage enttäuscht.
Physische Grenzen des KI-Wachstums
Die Internationale Energieagentur (IEA) warnt, dass der Ausbau von Rechenzentren durch Verzögerungen bei Netzanschlüssen gebremst werden könnte, da sich bereits lange Warteschlangen bilden. Langsame Genehmigungsverfahren und begrenzte Verfügbarkeit von Grossstromtransformatoren könnten den nötigen Netzausbau verzögern. Zudem beginnen US-Abgeordnete, Rechenzentren kritisch zu prüfen, da sie Strompreise und Wasserressourcen belasten.
Das Timing-Problem ist entscheidend: KI-Chips verlieren mit der Zeit an Wert, während Netzausbauprojekte Jahre dauern können. Wenn Projekte in Stromanschluss-Warteschlangen feststecken, könnten Betreiber Zinsen und andere Kosten für Anlagen tragen müssen, die mit veralteter Hardware bestückt sind – oder unter Druck geraten, Chips vorzeitig zu ersetzen, bevor sie sich amortisiert haben.
Wer wird die Früchte ernten?
Selbst wenn es den führenden KI-Entwicklern gelingt, genug Rechenkapazität für neue und bessere Modelle zu sichern, ist ungewiss, welche von ihnen tatsächlich profitieren werden. Die grössten KI-Unternehmen liefern sich einen erbitterten Wettbewerb, bei dem sich die Ranglisten alle paar Wochen ändern. Während einige Nutzer einer Plattform treu bleiben, können andere leicht zu neuen Anbietern wechseln. So migrierten etwa viele von ChatGPT zu Anthropics Claude, um das Unternehmen im Streit mit dem Pentagon über KI-Sicherheit zu unterstützen. Anthropic erleichterte zudem den Wechsel zwischen den Diensten.
Doch das Grundprinzip des US-KI-Geschäftsmodells – dass diejenigen gewinnen, die am meisten in Spitzentechnologie investieren – steht auf wackeligen Füssen. US-KI-Unternehmen, die ihre «proprietären» KI-Modelle geheim halten, konkurrieren mit einer wachsenden Zahl günstiger oder kostenloser Modelle, deren Parameter öffentlich zugänglich sind. Viele davon stammen aus China. Laut einer gemeinsamen Studie von MIT und Hugging Face erreichen chinesische Open-Source-Modelle mittlerweile 17 Prozent der globalen Downloads – und überholten damit erstmals US-Entwickler. Falls dieser Trend anhält, könnte das nicht nur die Reichweite US-KI-Programme begrenzen, sondern auch ihre Preisgestaltung langfristig unter Druck setzen.
(Bloomberg/cash)
