Zum Inhalt springen

Big Tech und Pentagon: Die rote Linie wurde 2024 still überschritten

OpenAI hat im Januar 2024 'military and warfare' aus seiner Usage Policy gestrichen. Anthropic-Claude läuft seit November 2024 auf AWS Secret Region (IL6). Wer KI-Militärkooperation als kommende Frage diskutiert, hat die letzten 18 Monate nicht gelesen.

D
Daniel Sonnet
· · 6 Min. Lesezeit
Big Tech und Pentagon: Die rote Linie wurde 2024 still überschritten

Am 10. Januar 2024 hat OpenAI die Worte “military and warfare” aus seiner Usage Policy gestrichen. Es gab keine Pressemitteilung. Die Änderung wurde nur durch einen Policy-Diff bei The Intercept bemerkt. Zehn Monate später, am 7. November 2024, kündigten Anthropic, Palantir und AWS gemeinsam an, dass Claude-Modelle künftig in der AWS Secret Region für US-Geheimdienste und das Verteidigungsministerium verfügbar sind. Secret Region heißt: Impact Level 6, die zweithöchste Klassifizierungsstufe des Pentagon. Claude verarbeitet seitdem Informationen, die offiziell als “SECRET” eingestuft sind.

Das ist keine Frage mehr für die Zukunft. Das ist die Gegenwart, und sie ist seit anderthalb Jahren in Produktion.

Was OpenAI im Januar 2024 still gestrichen hat

Bis Januar 2024 enthielt die OpenAI Usage Policy einen expliziten Verbotssatz für “military and warfare”. Am 10. Januar 2024 wurde dieser Satz entfernt. Stattdessen heißt es jetzt allgemeiner, man dürfe die Modelle nicht zum Schaden von Menschen einsetzen oder “Waffen entwickeln”. Was zwischen “Waffen entwickeln” und “Militär” alles möglich ist, hat OpenAI nicht definiert.

Das ist die entscheidende Lücke. Im Januar 2025 bestätigte OpenAI eine direkte Partnerschaft mit dem Verteidigungs-Tech-Unternehmen Anduril. Im Juni 2025 folgte ein 200-Millionen-Dollar-Vertrag direkt mit dem Pentagon, bestätigt durch eine Pressemitteilung des US-Verteidigungsministeriums. Beide Schritte wären unter der alten Policy ausgeschlossen gewesen. Unter der neuen sind sie es nicht.

Wer die Reihenfolge betrachtet, sieht ein Muster: Erst die Policy ändern, dann Verträge unterschreiben. Nicht andersherum.

Anthropic, Palantir, AWS und was IL6 wirklich heißt

Anthropic galt lange als das Labor mit den schärfsten Selbstverpflichtungen zu KI-Sicherheit. Im November 2024 wurde Claude Teil des Palantir Maven Smart Systems, dem zentralen KI-Targeting-Werkzeug der US Army, betrieben auf der AWS Secret Region.

AWS Secret Region ist nicht GovCloud. GovCloud entspricht Impact Level 4 oder 5, also sensiblen, aber unklassifizierten Regierungsdaten. Secret Region ist Impact Level 6 (IL6), die höchste nicht-Top-Secret-Klassifizierungsstufe des US-Verteidigungsministeriums. Daten auf IL6 sind Verschlusssache. Sie unterliegen dem National Industrial Security Program. Personen, die mit ihnen arbeiten, brauchen eine Secret Clearance.

Claude verarbeitet seit November 2024 also keine Trainings-Workloads für Militärthemen. Claude verarbeitet Informationen, die als SECRET klassifiziert sind, in produktiven Systemen der US-Armee. Das ist kein Pilot. Das ist kein Forschungsprojekt. Das ist Betrieb.

Was Google in den 78 Monaten dazwischen getan hat

Im April 2018 unterschrieben rund 4.000 Google-Mitarbeiter einen offenen Brief gegen die Beteiligung des Unternehmens an Project Maven, dem Drohnenbild-Analyseprojekt des Pentagon. Google zog sich aus Maven zurück, kündigte AI Principles an, in denen Waffensysteme explizit ausgeschlossen wurden. Das war der Moment, in dem die “rote Linie” zum ersten Mal in der Industrie sichtbar gezogen wurde.

Im Februar 2025 hat Google diese rote Linie aus seinen AI Principles still gestrichen. Auch hier ohne Pressemitteilung, nur durch einen Versionsvergleich nachweisbar. Im April 2025 unterschrieben über 580 Google-Mitarbeiter einen erneuten Protestbrief gegen Google-Workspace-Verträge mit dem israelischen Militär. Der Protest 2018 hatte rund 4.000 Unterzeichner. Der Protest 2025 hat rund 580.

Der Protest ist kleiner geworden. Die Verträge sind größer geworden. Das ist die ehrlichste Zusammenfassung der letzten sieben Jahre Big-Tech-Militärbeziehung.

Die Größenordnung des Marktes

Wer das alles für eine Reihe von Einzelfällen hält, unterschätzt die Vertragsvolumen. Drei Zahlen aus 2024 und 2025 zeigen die Struktur.

Scale AI hat im März 2025 einen 500-Millionen-Dollar-Vertrag mit dem Chief Digital and AI Officer des Pentagon (CDAO) für das Programm Thunderforge unterschrieben. Palantir betreibt das Maven Smart System mit einem Vertragsvolumen von über 1,3 Milliarden Dollar plus einem Enterprise Agreement von 10 Milliarden Dollar mit der US Army, Stand Dezember 2024. OpenAI sitzt seit Juni 2025 mit 200 Millionen Dollar direkt am Pentagon-Tisch.

Das ist kein Beifang der Tech-Industrie. Das ist ein eigener struktureller Markt, der jährlich wächst, der mit klarer Förderlogik unterlegt ist und der mittlerweile alle großen Foundation-Model-Anbieter umfasst. Wer auf der Liste der vom Pentagon zugelassenen KI-Anbieter stehen will, muss durch Procurement-Prozesse, Sicherheitsfreigaben und IL6-Zertifizierungen, die mehrere Jahre dauern. Anthropic hat das durchlaufen. OpenAI auch. Google sowieso.

Das einleuchtende Gegenargument

Es gibt ein ernsthaftes Gegenargument gegen diese Lesart — und es lohnt sich, es ernst zu nehmen.

KI für Militärlogistik, Aufklärung, Verwaltung und Übersetzung, so lautet es, ist kategorisch verschieden von autonomen Waffensystemen. Solange ein Mensch den Kill-Decision trifft, bleibt die rote Linie unbeschritten. Was Claude in der AWS Secret Region tut, ist nach diesem Argument keine Kriegsführung. Es ist Berichte zusammenfassen, Bilder einordnen, Datenströme strukturieren. Verwaltung von Information, die im Krieg anfällt.

Das Argument ist sachlich korrekt. Verwaltung ist nicht Tötung. Aufklärung ist nicht autonomer Waffeneinsatz. Wer die Unterscheidung verwischt, redet unsauber.

Warum das Gegenargument trotzdem den Punkt verfehlt

Was es trotzdem verschleiert: Die Unterscheidung zwischen “unterstützender KI” und “tötender KI” beschreibt eine Funktion, nicht eine Infrastruktur. Autonome Waffensysteme der nächsten Generation kommen nicht als geschlossene Box — sie werden auf Echtzeit-Datenpipelines aufgebaut sein, die genau die Aufgaben übernehmen, die heute schon laufen: Drohnenbilder klassifizieren, Targeting-Vorschläge berechnen, Bewegungsmuster auswerten, Lageberichte verdichten.

Maven Smart System ist exakt diese Pipeline. Es generiert Targeting-Empfehlungen aus Drohnen- und Satellitenaufklärung. Der Mensch drückt am Ende den Knopf. Aber er drückt ihn auf Basis dessen, was die KI vorschlägt, in einem Tempo, das menschliche Detail-Prüfung jeder einzelnen Empfehlung praktisch ausschließt.

Wer diese Infrastruktur baut, betreibt und auf IL6 zertifiziert, hat die Linie zwischen “ziviler KI” und “Waffeninfrastruktur” überschritten. Unabhängig davon, wer formal den Auslöser betätigt. Die Behauptung, man liefere nur die Datenebene und nicht die Waffe, war 2018 ein vertretbares Argument. 2026 ist sie eine Beruhigungsformel.

Was strukturell jetzt feststeht

Drei Befunde, die niemand ernsthaft mehr bestreitet, wenn man die Verträge liest.

Erstens: Die drei großen Foundation-Model-Anbieter, OpenAI, Anthropic und Google, haben zwischen Januar 2024 und Februar 2025 ihre Selbstverpflichtungen so geändert, dass Pentagon-Geschäft zulässig ist. Diese Reihenfolge ist kein Zufall.

Zweitens: Die operativen Einsätze sind nicht hypothetisch. Claude läuft auf IL6. Maven generiert Targeting-Empfehlungen. Scale AI baut Thunderforge. Das alles ist Stand 2024/2025 dokumentiert, nicht Stand “demnächst angekündigt”.

Drittens: Die ethische Debatte in der Industrie ist verstummt, nicht entschieden. Der Mitarbeiter-Protest bei Google ist von 4.000 auf 580 geschrumpft. Bei OpenAI gab es nach dem Policy-Wechsel im Januar 2024 keinen vergleichbaren öffentlichen internen Widerstand. Was 2018 noch ein Karriererisiko war, ist heute ein Standard-Geschäftsbereich.

Wer 2026 noch über die Frage “Sollten KI-Firmen mit dem Militär kooperieren?” diskutiert, beantwortet die falsche Frage. Die Frage ist beantwortet. Die offene Frage lautet: Wer kontrolliert künftig, wofür IL6-zertifizierte Foundation Models eingesetzt werden? Die Anbieter, die Vertragspartner, oder eine demokratische Öffentlichkeit, die bisher nicht einmal mitbekommen hat, dass die Linie verschoben wurde?


Wer Markt-Verschiebungen wie die OpenAI-Policy-Änderung oder den Anthropic-Palantir-AWS-Deal nicht erst aus Schlagzeilen der nächsten Woche erfahren will, findet im KI-Syndikat-Newsletter regelmäßig Analysen, die offizielle Dokumente gegen öffentliche Wahrnehmung gegenrechnen.

Diesen Artikel teilen:

Kommentare

Kommentare werden in Kürze freigeschaltet. Bis dahin freuen wir uns über dein Feedback per E-Mail an info@gerabo.de.

Kostenloser Newsletter

Bleib auf dem neuesten
Stand der KI

Wähle deine Themen und erhalte relevante KI-News, Praxistipps und exklusive Inhalte direkt in dein Postfach – kein Spam, jederzeit abmeldbar.

Was interessiert dich? Wähle 1–3 Themen — du bekommst nur Inhalte dazu.

Mit der Anmeldung stimmst du unserer Datenschutzerklärung zu. Jederzeit abmeldbar.

Kostenlos
Kein Spam
Jederzeit abmeldbar