KI-Chatbots sind im Alltag vieler Menschen längst angekommen. Rund 60 Prozent der in der Schweiz lebenden Personen nutzen KI-Tools, wie die aktuelle IGEM-Digimonitor-Studie zeigt. Und sie nutzen sie nicht nur zur Ferienplanung oder zum Verfassen von Texten. Immer mehr Menschen fragen die Programme auch um Rat zum Geldanlegen.
Doch kann man der KI beim Geld anlegen vertrauen?
cash.ch hat die Gratisversionen der vier gängigsten Large-Language-Model-Tools ChatGPT von OpenAI, Gemini von Google, Perplexity.ai und Claude.ai für Investment-Tipps ausprobiert. Das Ergebnis zeigt: Die Tools unterscheiden sich massiv in ihrer Risikobereitschaft.
Für das fiktive Beispiel gab die Redaktion den vier Chatbots den Befehl für eine Privatanlegerin, ein Aktienportfolio aus Titeln des Swiss Performance Index (SPI) zusammenzustellen. Die Vorgabe lautete jeweils, dass das Portfolio über die Anlagedauer eine möglichst hohe Rendite erzielen soll. Dabei unterschied sie drei Parameter:
- Prompt 1: 50'000 Franken Startkapital, 20 Jahre Anlagehorizont, defensives Risikoprofil
- Prompt 2: 100'000 Franken Startkapital, 10 Jahre Anlagehorizont, ausgewogenes Risikoprofil
- Prompt 3: 200'000 Franken Startkapital, 7 Jahre Anlagehorizont, hohes Risikoprofil
Zwischen Warnhinweis und Kaufempfehlung
Erstes Resultat: Die Antworten der KI-Tools könnten unterschiedlicher nicht ausfallen. Gemini und Claude.ai bremsen sofort: «Ich bin ein KI-Modell und kein Anlageberater», schreibt Gemini bereits im ersten Satz. Beide weisen klar sichtbar darauf hin, dass sie keine persönliche Finanzberatung leisten können, und empfehlen stattdessen, eine qualifizierte Beraterin zu konsultieren.
Konkrete Aktien nennen sie nicht. Stattdessen schlagen sie vor, das Portfolio über mehrere Anlageklassen zu diversifizieren, etwa 30 bis 40 Prozent in Aktien, 60 bis 70 Prozent in Anleihen. Denn beide warnen vor einem «Konflikt zwischen Renditeziel und Risikoprofil», wenn ein defensives Portfolio gleichzeitig hohe Renditen erzielen soll.
ChatGPT hingegen legt sofort los: «Super, danke für die Details. Ich habe dir unten ein konkretes Aktien-Portfolio zusammengestellt», heisst es enthusiastisch. Der Chatbot listet zwölf Einzeltitel auf: Von Nestlé (15 Prozent) über Roche (12 Prozent) bis zu UBS (5 Prozent). Zwar erwähnt auch ChatGPT den Zielkonflikt zwischen defensivem Profil und maximaler Rendite, schlägt aber erst am Ende der Antwort andere Anlageklassen vor. Ebenfalls erst am Schluss erhält man den Hinweis, dass es sich um «Informationsvorschläge» und «keine Anlageberatung im rechtlichen Sinn» handle. Dann folgt die Frage: «Möchtest du, dass ich jetzt konkrete Kauforders in Stückzahlen berechne?»
Perplexity.ai bewegt sich irgendwo dazwischen. Das Tool liefert zunächst allgemeine Informationen zum SPI, Anlegerrisiken und historischen Renditen, listet dann aber ebenfalls konkrete Titel mit Gewichtung auf, etwa Nestlé (25 bis 30 Prozent), Roche (20 bis 25 Prozent) und Novartis (15 bis 20 Prozent). Am Ende fragt Perplexity: «Möchten Sie eine konkrete Aufteilung mit Mengenangaben für den Kauf?»
Die KI-Empfehlungen im Detail:
|
|||
|
|
|
|
|
Keine Einzeltitel, empfiehlt 30 - 40% Aktien, 50 - 60% Anleihen, 0 - 20% Bareinlagen |
|
Keine Einzeltitel, empfiehlt 30 - 40% Aktien, 60 - 70% Anleihen |
|
|||
|
|
|
|
|
Keine Einzeltitel, empfiehlt 50 - 60% Aktien, 40 - 50% Anleihen |
|
Vorschlag Sektoraufteilung |
|
|||
|
|
|
|
|
Keine Einzeltitel, empfiehlt zu 80 - 100% Aktien, 0 - 20% Anleihen |
|
Vorschlag Sektoraufteilung |
Mangelnde Diversifikation und fehlende Rückfragen
Finanz- und Anlageberaterin Clara Creitz hat sich die KI-Empfehlungen, die cash.ch angefordert hat, angesehen. Ihr Urteil: «Die Auswahl ist überhaupt nicht diversifiziert.» Die Portfolios wiesen massive Klumpenrisiken auf. So schlage ChatGPT bei allen drei Szenarien weitgehend dieselben Titel vor, unabhängig vom Risikoprofil. «Bei einem defensiven Portfolio über 20 Jahre sollten ganz andere Überlegungen eine Rolle spielen als bei einem risikoreichen Portfolio über sieben Jahre.»
Noch entscheidender findet Creitz, was die KI nicht fragt: «Es fehlt jede Rückfrage zur finanziellen Situation der Anlegerin.» Eine seriöse Beraterin würde erfragen, wie viel Vermögen vorhanden ist, wie viel davon bereits investiert ist, welche konkreten Ziele erreicht werden sollen und welchen Anlagehorizont besteht. Auch das Ausfallrisiko werde überhaupt nicht thematisiert, so Creitz: «Was passiert, wenn die Anlegerin das Geld plötzlich braucht?»
Patrick Hauf, Dozent am Institut für Wealth & Asset Management der ZHAW, der sich seit Jahren mit Künstlicher Intelligenz im Finanzwesen beschäftigt, bestätigt das: «Echte Individualisierung ist derzeit kaum möglich.» Sprachmodelle wie ChatGPT reagieren auf Texteingaben, analysieren aber keine strukturierten Daten zu Einkommen, Vermögen oder Lebenszielen, so Hauf und ergänzt: «Die Antworten bleiben deshalb allgemeiner Natur und sind eher als Finanzwissen zu verstehen, nicht als persönliche Beratung.»
Veraltete Daten und Halluzinationen
Weiter sehen die Experten grundlegende Probleme, wie etwa bei den Datengrundlagen. Michaela Tanner, ebenfalls Dozentin an der ZHAW, erklärt: «Die Systeme enthalten im Standard kein aktuelles Markt- oder Transaktionswissen.» Zwar suchen Modelle wie ChatGPT oft im Web nach aktuellen Informationen. Dennoch komme es vor, dass man bei komplexeren Anfragen eine Mischung aus veralteten und neuen Informationen erhalte, führt Tanner aus. Das bestätigt auch Creitz: «Gesetzesänderungen, aktuelle Jahreszahlen, Finanzkennzahlen, das sind Fachdaten, die die KI nicht einfach im Internet gratis abgrasen kann.» Das bestätigte sich auch im Test von Cash. So nannte der Chatbot Claude zwar keine Einzelaktien, bezog sich bei all seinen Börseninformationen und Investment-Tipps jedoch auf einen Anfang Januar veröffentlichten Artikel von cash.ch.
Neben veralteten Daten sei laut Tanner auch der sogennante Bias ein Problem. Die Verzerrungen hängen teils von der Sprache, aber vielmehr von der Zusammensetzung der Daten ab. Also davon, welche Regionen, Märkte und Anlegergruppen und Anlagethemen darin vertreten sind. Anleger sollten prüfen, ob eine Antwort für ihren Markt und ihre Bedürfnisse und Anlageziele überhaupt relevant ist seien.
Zu den Tücken mit der Datenqualität kommt das Datenschutzrisiko. Teilweise wird auf den Daten trainiert, die man dem Chatbot zur Verfügung stelle, erklärt Hauf den Mechanismus. Das heisst, die persönlichen Daten helfen die KI weiterzuentwickeln. «Anleger sollten genau abwägen, welchem Anbieter sie welche Daten anvertrauen.»
Die beschriebenen Schwächen zeigen sich besonders deutlich in turbulenten Marktphasen, warnt Hauf. Denn die Sprachmodelle hätten in der Regel keinen Echtzeitbezug und täten sich schwer, emotionale Dynamiken zu erfassen: «Selbst wenn die KI sehr viel weiss, in die Zukunft blicken kann sie nicht und kann mit ihren Tipps, zum Beispiel während eines Marktcrashs, ziemlich daneben liegen.»
Hinzu komme die Gefahr von Halluzinationen, also falsche Antworten, die sehr überzeugend klingen. Die werden zwar immer seltener, bleiben aber stets möglich. Hauf sagt: «Die KI klingt meist sehr überzeugend, das heisst aber nicht, dass die Inhalte korrekt oder vollständig sind.»
All diese Fehlerquellen werden durch ein psychologisches Problem verschleiert, warnt Tanner: die trügerische Objektivität. «Viele Menschen glauben, eine Maschine sei objektiver als ein Mensch.» Das stimme vor allem bei den grossen Sprachmodellen nicht, so Tanner. Denn dort würde die KI Muster aus Vergangenen liefern und nicht zwingend eine objektive Wahrheit.
Inspiration ja, Anlageberatung nein
Trotz all dieser Einschränkungen sehen die Experten durchaus einen Nutzen: KI-Chatbots können als erster Einstieg in Anlagethemen dienen, zeigt der Test. «Finanzielle Bildung ist wichtig. KI senkt die Einstiegshürde in ein oft sehr komplexes Thema», sagt Tanner. Mit dem leichteren Zugang steigt auch die Verantwortung, mahnt Tanner: «Anleger müssen lernen, diese Informationen kritisch zu hinterfragen.» Deshalb sollten laut der Expertin, grundlegendes Finanzwissen vorhanden sein, um die Antworten der KI-Chatbots einordnen zu können.
Wer sein Geld anlegen möchte, sollte KI-Tools höchstens als Ideengeber nutzen und die Vorschläge von einem qualifizierten Finanzberater prüfen lassen.