Sollte das Unternehmen nicht einlenken, drohten ⁠harte Strafen, berichtete das Nachrichtenportal Axios am Dienstag. Hintergrund ist der Plan des ‌Pentagon, KI-Modelle auch in geheimen Netzwerken zu nutzen, ‌ohne dabei den üblichen Einschränkungen ​der Hersteller zu unterliegen. Die US-Regierung will KI-Modelle verstärkt auf allen Geheimhaltungsstufen einsetzen, um militärische Entscheidungen zu beschleunigen.

Die Verhandlungen mit dem für seinen Chatbot Claude bekannten Unternehmen gestalten sich Insidern zufolge jedoch schwierig. Anthropic-Manager ‌haben Regierungsvertretern gegenüber deutlich gemacht, dass ihre Technologie nicht für die autonome Zielerfassung oder für die Überwachung im Inland eingesetzt werden soll, wie ​die Nachrichtenagentur Reuters jüngst meldete. Ein Sprecher des ​Unternehmens hatte erklärt, man wolle zwar ​helfen, den US-Vorsprung bei der KI zu sichern, befinde sich aber noch in ‌Diskussionen über die genaue Art der Zusammenarbeit.

Mit seiner Haltung bildet Anthropic derzeit eine Ausnahme in der Branche. Konkurrenten wie die Google-Mutter Alphabet, ​das von ​Tesla-Chef Elon Musk geführte Unternehmen ⁠xAI und der ChatGPT-Entwickler OpenAI haben ​bereits Abkommen mit der ⁠Regierung geschlossen. So hat OpenAI zugestimmt, viele der üblichen Nutzungsbeschränkungen ‌für das militärische Netzwerk «genai.mil» aufzuheben. Experten warnen jedoch vor Risiken. KI-Modelle neigen unter anderem dazu, Informationen zu erfinden, sogenannte «Halluzinationen».

Präsident ‌Donald Trump hatte die Umbenennung des Verteidigungsministeriums in «Kriegsministerium» (Department of War) ​angeordnet. Der Kongress hat die Änderung bislang nicht bestätigt.

(Reuters)