Grund sei, ‌dass ⁠das Unternehmen auf Beschränkungen bei der Nutzung seiner Modelle ⁠durch das US-Militär bestehe, berichtete das Nachrichtenportal Axios am Samstag unter Berufung ‌auf einen Regierungsvertreter. Das Pentagon dringe ‌darauf, dass vier KI-Unternehmen dem ​Militär den Einsatz ihrer Werkzeuge für «alle rechtmässigen Zwecke» gestatten, einschliesslich der Waffenentwicklung, der Beschaffung von Geheimdienstinformationen und Einsätzen auf dem Schlachtfeld. Anthropic habe diesen Bedingungen jedoch nicht zugestimmt, und dem ‌Bericht zufolge sei die Geduld des Pentagons nach monatelangen Verhandlungen erschöpft. Zu den anderen Unternehmen gehören OpenAI, Google und xAI.

Ein Sprecher ​von Anthropic sagte, das Unternehmen habe ​den Einsatz seines KI-Modells Claude für ​bestimmte Operationen nicht mit dem Pentagon besprochen. Die Gespräche mit der US-Regierung hätten ‌sich bisher auf verschiedene Aspekte der Nutzungsrichtlinie konzentriert, darunter klare Grenzen für vollständig autonome Waffen und die Massenüberwachung im ​Inland. Keine ​davon beziehe sich auf ⁠aktuelle Operationen. Die Zeitung «Wall Street Journal» ​hatte am Freitag ⁠berichtet, dass das KI-Modell Claude von Anthropic über eine ‌Partnerschaft mit dem Datenunternehmen Palantir bei dem Einsatz des US-Militärs zur Ergreifung des ehemaligen venezolanischen Präsidenten Nicolas ‌Maduro eingesetzt wurde. Eine Stellungnahme des Pentagons lag ​zunächst nicht vor. 

(Reuters)