Das Pentagon hat das KI-Unternehmen Anthropic offiziell als Risiko für die Lieferkette eingestuft. Die am Donnerstag (Ortszeit) verhängte Massnahme verbietet ‌Regierungsauftragnehmern ⁠mit sofortiger Wirkung den Einsatz von Anthropic-Technologie bei ihrer Arbeit für das ⁠US-Militär, wie das Unternehmen bestätigte. Firmenchef Dario Amodei kündigte in einer Erklärung an, gerichtlich ‌gegen die Entscheidung vorgehen zu wollen.

Die Massnahme folgt ‌einer Anweisung von US-Präsident Donald Trump vom ​vergangenen Freitag, die allen Bundesbehörden die Nutzung von Anthropic-Produkten untersagt. Infolgedessen haben bereits mehrere Ministerien die Zusammenarbeit beendet. Das US-Aussenministerium teilte mit, man ergreife umgehend Massnahmen zur Anpassung der Programme. Auch das Gesundheitsministerium wies seine Mitarbeiter an, ‌auf alternative Produkte wie ChatGPT von OpenAI oder Gemini von Google auszuweichen.

Der Softwarekonzern Microsoft, ein wichtiger Partner und Investor der KI-Firma, teilte mit, dass ​die Produkte von Anthropic seinen Kunden ausserhalb des Verteidigungsministeriums weiterhin ​zur Verfügung stehen könnten. Dies gelte ​für Plattformen wie M365, GitHub und Microsofts AI Foundry. Amazon, ein weiterer Investor und wichtiger ‌Kunde, war für eine Stellungnahme zunächst nicht zu erreichen.

Hintergrund der Eskalation ist ein monatelanger Streit über die von Anthropic geforderten Sicherheitsvorkehrungen. Diese gehen dem Verteidigungsministerium, ​das ​die Regierung von Präsident Donald Trump ⁠als Kriegsministerium bezeichnet, zu weit. Anthropic weigert sich, ​den Einsatz seiner ⁠KI Claude für autonome Waffen und zur Massenüberwachung in den USA zuzulassen. Das ‌Pentagon pocht jedoch darauf, die Technologie bei Bedarf nutzen zu können, solange dies im Einklang mit US-Recht stehe. Die Einstufung ‌als «Risiko für die Lieferkette» war von Washington bisher typischerweise ​für ausländische Gegner wie den chinesischen Technologiekonzern Huawei verwendet worden.

(Reuters)