Sollte das Unternehmen nicht einlenken, drohten harte Strafen, berichtete das Nachrichtenportal Axios am Dienstag. Hintergrund ist der Plan des Pentagon, KI-Modelle auch in geheimen Netzwerken zu nutzen, ohne dabei den üblichen Einschränkungen der Hersteller zu unterliegen. Die US-Regierung will KI-Modelle verstärkt auf allen Geheimhaltungsstufen einsetzen, um militärische Entscheidungen zu beschleunigen.
Die Verhandlungen mit dem für seinen Chatbot Claude bekannten Unternehmen gestalten sich Insidern zufolge jedoch schwierig. Anthropic-Manager haben Regierungsvertretern gegenüber deutlich gemacht, dass ihre Technologie nicht für die autonome Zielerfassung oder für die Überwachung im Inland eingesetzt werden soll, wie die Nachrichtenagentur Reuters jüngst meldete. Ein Sprecher des Unternehmens hatte erklärt, man wolle zwar helfen, den US-Vorsprung bei der KI zu sichern, befinde sich aber noch in Diskussionen über die genaue Art der Zusammenarbeit.
Mit seiner Haltung bildet Anthropic derzeit eine Ausnahme in der Branche. Konkurrenten wie die Google-Mutter Alphabet, das von Tesla-Chef Elon Musk geführte Unternehmen xAI und der ChatGPT-Entwickler OpenAI haben bereits Abkommen mit der Regierung geschlossen. So hat OpenAI zugestimmt, viele der üblichen Nutzungsbeschränkungen für das militärische Netzwerk «genai.mil» aufzuheben. Experten warnen jedoch vor Risiken. KI-Modelle neigen unter anderem dazu, Informationen zu erfinden, sogenannte «Halluzinationen».
Präsident Donald Trump hatte die Umbenennung des Verteidigungsministeriums in «Kriegsministerium» (Department of War) angeordnet. Der Kongress hat die Änderung bislang nicht bestätigt.
(Reuters)

