Seit der Veröffentlichung von ChatGPT im November 2022 beherrscht der Begriff Künstliche Intelligenz (KI) die Schlagzeilen. Fast täglich stellen Unternehmen neue Anwendungen auf Basis dieser Technologie vor. Nach anfänglicher Euphorie mehren sich die Warnungen vor den Risiken: Da sich von sogenannter Generativer KI erstellte Texte und Bilder kaum als solche identifizieren lassen, könnten diese für Desinformation missbraucht werden. Ausserdem gebe es Datenschutz-Bedenken.
Nachfolgend eine Aufstellung verschiedener Initiativen:
Europäische Union - bringt Gesetz auf den Weg
Nach zwei Jahren Arbeit hat das Europäische Parlament ein KI-Gesetz verabschiedet. Dieses muss nun noch mit der EU-Kommission und den einzelnen Staaten der Gemeinschaft im sogenannten Trilog abgestimmt werden. Angestrebt wird eine Einigung im laufenden Jahr. Den EU-Plänen zufolge sollen KI-Anwendungen in bestimmte Risikoklassen eingestuft werden, an denen sich der Umfang der gesetzlichen Beschränkungen orientiert. Einiges wie die Gesichtserkennung im öffentlichen Raum wird verboten. Deutschland, Frankreich und Italien schlagen vor, KI-Anbieter lediglich Selbstverpflichtungen abzuverlangen. Zudem sollten Verstösse dagegen zunächst nicht geahndet werden.
Da es inklusive von Übergangsfristen aber noch mehrere Jahre dauert, bis der "AI Act" greift, will die EU die Zeit bis dahin mit einer freiwilligen Selbstkontrolle der Unternehmen überbrücken. Hierfür will sie die grossen Technologiekonzerne und massgebliche KI-Entwickler ins Boot holen. EU-Kommissionspräsidentin Ursula von der Leyen schlägt die Einrichtung eines internationalen Gremiums nach dem Vorbild des UN-Klimarats IPCC vor, das Nutzen und Risiken von KI beurteilt.
Deutschland - plant keine eigene Regulierung
Die Bundesregierung plant keine eigenen, speziellen KI-Vorschriften. Im November 2022 verwies sie in einer Antwort auf eine Kleine Anfrage auf die Unesco-Empfehlung zur Ethik der KI von 2021 sowie das Gesetzesvorhaben auf europäischer Ebene.
G7 - Leitlinien für KI-Anbieter
Die Gruppe der sieben führenden demokratischen Industriestaaten (G7) hat den "Hiroshima-KI-Prozess" ins Leben gerufen, der Leitlinien für KI-Anbieter entwickelt. Diese zielten darauf ab, "sichere und vertrauenswürdige KI weltweit zu fördern". Die Einhaltung des Kodex ist freiwillig.
USA - Präsident erlässt Regulierungsdekret
US-Präsident Joe Biden verpflichtet KI-Anbieter per Dekret zu bestimmten Tests, wenn die Programme Risiken für die nationale Sicherheit sowie die öffentliche Gesundheit und Sicherheit darstellen. Parallel dazu wird ein "Institut für KI-Sicherheit" aufgebaut, das Risiken bewerten soll. Ausserdem erarbeitet das Handelsministerium Richtlinien für die Kennzeichnung von KI-generierten Inhalten. Bislang gibt es nur Selbstverpflichtungen einiger Unternehmen, KI-Inhalte mit einem Wasserzeichen zu markieren. Parallel dazu haben US-Parlamentarier einen überparteiligen Gesetzentwurf eingebracht, der den Einsatz von KI zur Beeinflussung von Wahlen verbietet.
China - erlässt vorläufige Leitlinien
Die chinesische Internet-Behörde hat einen Entwurf für eine Regulierung von KI vorgelegt. Ziel sei die Förderung dieser Technologie, die allerdings mit den sozialistischen Grundwerten der Volksrepublik übereinstimmen müsse. Bis zur Verabschiedung dieser Gesetze müssen sich Firmen Sicherheitsbewertungen unterziehen und ihre Algorithmen bei den Behörden hinterlegen, wenn sie ihre KI der breiten Öffentlichkeit zugänglich machen. Zu den Auflagen, denen sich die Anbieter unterwerfen müssen, gehört eine Schwarze Liste von Quellen, die nicht für das KI-Training herangezogen werden dürfen.
UN/Grossbritannien - planen Regulierung
Die Vereinten Nationen (UN) rufen ein 39-köpfiges Beratergremium aus Regierungsbeamten, Managern von Technologie-Unternehmen und Wissenschaftlern ins Leben. Es soll regulatorische Empfehlungen erarbeiten. Im Sommer 2023 hatte der Sicherheitsrat erstmals offiziell über KI diskutiert. Diese Technologie könnte dem UN-Generalsekretär Antonio Guterres zufolge "sehr schwerwiegende Folgen für den Weltfrieden und die globale Sicherheit haben".
In Grossbritannien hat die Kartellbehörde CMA sieben Grundsätze skizziert, wie KI-Anbieter in die Verantwortung zu nehmen und wettbewerbswidriges Verhalten der grossen Technologiekonzerne zu unterbinden. Ausserdem will das Land die Mittel für die KI-Forschung auf umgerechnet 344 Millionen Euro verdreifachen. Dies soll dazu beitragen, diese Technologie sicherer zu machen.
Australien/Irland/Niederlande - sammeln Informationen
Die australische Regierung hat dem Industrie- und Forschungsministerium zufolge den Wissenschaftsbeirat um eine Einschätzung zu möglichen Regulierungsansätzen gebeten. Darüber hinaus verpflichtet das Land Suchmaschinen-Betreiber, dass per KI erstellte Bilder und Videos von Kindesmissbrauch nicht in Trefferlisten angezeigt werden.
Der Chef-Datenschützer Irlands betont die Notwendigkeit der Regulierung von ChatGPT & Co. Allerdings müssten die Behörden zunächst die notwendige Expertise erlangen, damit die Gesetze auch Bestand hätten.
Auch seine Kollegen aus den Niederlanden wollen sich ein genaueres Bild über den Umgang von KI mit persönlichen Daten der Nutzer machen. Sie haben bei OpenAI Informationen hierüber angefordert.
(Reuters)