“Ossietzky”: Der Krieg im Abonnement

&

Dieser Beitrag erschien in der Zweiwochenschrift für Politik, Kultur und Wirtschaft „Ossietzky“, Nr. 5/2026, Seite 129–131

Man muss den Mut haben, ein Verwaltungswort ernst zu nehmen: »Beschaffung«. Ein Begriff, der nach Haushaltsausschuss klingt und nach Formularwesen, nicht nach Schlachtfeld. Doch genau dort entscheidet sich heute, wie der Krieg von morgen aussieht: nicht im Gefechtsstand, sondern im Vergabeverfahren.

Im Februar 2026 veröffentlichte das Stockholmer Friedensforschungsinstitut (Stockholm International Peace Research Institute, SIPRI) eine Studie mit dem nüchternen Titel »Verantwortungsvolle Beschaffung militärischer künstlicher Intelligenz«. Verfasst wurde sie von Netta Goussac und Vincent Boulanin. Man könnte meinen, es handle sich um einen technischen Leitfaden. Tatsächlich ist es ein Dokument über Macht – und über die stille Transformation des Krieges in ein Geschäftsmodell mit Update-Funktion.

Die Autoren beschreiben Beschaffung als Brücke zwischen strategischem Bedarf und operativer Fähigkeit. Das klingt sachlich. Übersetzt heißt es: Hier wird festgelegt, was als militärisch notwendig gilt – und wer daran verdient. Wer diese Brücke kontrolliert, kontrolliert nicht nur das Arsenal, sondern die Richtung der Entwicklung. Beschaffung ist die Stelle, an der politische Entscheidung in technische Realität gegossen wird.

Der Druck, diese Realität zu beschleunigen, ist massiv. Die Studie spricht vom »Bedarf an Geschwindigkeit«. Geschwindigkeit – das ist das Zauberwort einer Epoche, die alles als Rückstand empfindet, was nicht sofort einsatzfähig ist. Im geopolitischen Wettbewerb zwischen den Vereinigten Staaten und China wird künstliche Intelligenz als strategischer Hebel begriffen. Wer schneller integriert, wer schneller skaliert, wer schneller aktualisiert, so die Logik, verschafft sich militärischen Vorsprung.

Das klingt wie ein technologischer Sachzwang. In Wahrheit ist es ein politischer Entschluss, den Wettlauf fortzusetzen. Niemand zwingt Staaten, jeden Innovationsimpuls in militärische Kapazität zu übersetzen. Aber die Konkurrenzideologie – Vorsprung oder Untergang – hat sich als selbstverständliche Denkfigur etabliert. Und so wird aus jeder neuen Softwareversion ein sicherheitspolitisches Gebot.

Der Krieg in der Ukraine dient dabei als Anschauungsunterricht. Die Studie verweist auf die Rolle preiswerter, massenhaft einsetzbarer, »verzichtbarer« Systeme – also Drohnen und autonome Plattformen, die man, bewusst einkalkuliert, verliert. Die Lehre lautet: Wer schnell produzieren und nachliefern kann, gewinnt operative Vorteile. Nicht die Haltbarkeit, sondern die Ersetzbarkeit zählt.

Hier tritt eine neue Logik in den Vordergrund: militärische Systeme als Wegwerfprodukte. Das ist keine technische Randnotiz, sondern Ausdruck einer Ökonomie, die auf Durchsatz setzt. In der klassischen Rüstungsindustrie war der Panzer ein langlebiges Investitionsgut. In der digitalen Rüstungsökonomie ist die Software das eigentliche Produkt – und sie altert im Rhythmus der Gegenmaßnahme. Vorteil und Verfall liegen dicht beieinander.

Der Bericht benennt ausdrücklich das Modell »künstliche Intelligenz als Dienstleistung«. Das bedeutet: Der Staat kauft kein abgeschlossenes System, sondern abonniert fortlaufende Funktion. Updates, Wartung, Anpassung – gegen Gebühr. Wer das Update kontrolliert, kontrolliert die Einsatzfähigkeit. Die militärische Souveränität wandert in Serverfarmen und Lizenzverträge.

Hier zeigt sich eine neue Qualität der Abhängigkeit. Der Staat wird nicht nur Abnehmer, sondern Dauerklient. Er finanziert die Entwicklungszyklen privater Technologieunternehmen und bindet seine operative Handlungsfähigkeit an deren Geschäftsmodelle. Das ist keine Verschwörung, sondern Vertragsrecht. Und genau darin liegt die politische Pointe: Die Gewaltmittel des Staates werden in eine Struktur eingepasst, deren oberstes Ziel nicht Sicherheit, sondern Rendite ist.

Natürlich bleibt das nicht unkommentiert. Die Studie widmet ein ganzes Kapitel dem »Bedarf an Verantwortung«. Völkerrechtliche Verpflichtungen, insbesondere die Pflicht zur Überprüfung neuer Waffen nach Artikel 36 des Zusatzprotokolls I zu den Genfer Konventionen, werden betont. Hinzu kommen Prinzipien wie Zuverlässigkeit, Sicherheit, Rückverfolgbarkeit, Erklärbarkeit, Rechenschaftspflicht und Schutz vor Verzerrung.

Das liest sich wie ein ethischer Schutzwall. Doch dieser Wall steht unter Beschleunigungsdruck. Wenn Beschaffungszyklen von Jahren auf Monate verkürzt werden sollen, wenn Tausende autonome Systeme binnen kurzer Frist ins Feld gebracht werden sollen, dann stellt sich die Frage: Wie viel Prüfung verträgt die Eile?

Die Autoren benennen das Dilemma offen: Lernende Systeme sind oft undurchsichtig; ihre Funktionsweise lässt sich nicht vollständig deterministisch nachvollziehen. Klassische Test- und Evaluationsmethoden stammen aus einer Welt mechanischer Berechenbarkeit. Künstliche Intelligenz operiert statistisch. Man testet Wahrscheinlichkeiten, nicht Gewissheiten. Sicherheit wird zum Vertrauensverhältnis.

Verantwortung heißt in dieser Lage: Der Staat muss die Fähigkeit besitzen, Herstellerangaben unabhängig zu prüfen. Doch genau diese Fähigkeit kostet Zeit, Personal, Expertise – und steht im Widerspruch zum politischen Ruf nach Tempo. Wer beschleunigt, delegiert. Wer delegiert, vertraut. Und wer vertraut, verliert einen Teil seiner Kontrolle.

Besonders deutlich wird das am Beispiel der Ukraine. Dort wurde mit »Brave1« eine Plattform geschaffen, über die militärische Einheiten direkt aus einem Katalog von über tausend Innovationen wählen können. Rechtliche und ethische Prüfungen sollen stattfinden, doch Details bleiben begrenzt. Das ist verständlich im Kontext existenzieller Bedrohung. Aber wenn dieses Modell zur Blaupause wird, dann wird der Ausnahmezustand zur Norm.

Hier beginnt die friedenspolitische Kritik. Nicht, weil Staaten ihre Verteidigung organisieren – das ist ihr Recht –, sondern weil die Logik des Wettlaufs jede normative Selbstbindung relativiert. Wenn Geschwindigkeit zur strategischen Tugend erklärt wird, erscheint jede Verzögerung als Gefahr. Ethik wird zur Hürde, die man so niedrig wie möglich ansetzt.

Die Studie formuliert drei Empfehlungen: Verantwortungsprinzipien frühzeitig in die Anforderungsspezifikation integrieren; klare, öffentlich formulierte Erwartungen an Anbieter festlegen; internationale Diskussionen über Beschaffungsstandards führen. Das ist vernünftig. Es ist auch defensiv.

Denn die entscheidende Frage wird nur am Rand berührt: Muss jede technisch mögliche Fähigkeit militärisch realisiert werden? Oder anders: Ist die Aufrüstung mit künstlicher Intelligenz ein Naturgesetz – oder eine politische Entscheidung?

Marxistisch betrachtet ist der militärische Einsatz künstlicher Intelligenz kein technischer Automatismus, sondern Ausdruck einer Produktionsweise, die Innovation primär als Wettbewerbsvorteil denkt. Der Staat wird zum Garanten der Verwertung, indem er Nachfrage schafft und Risiken sozialisiert. Die moralische Rahmung – »verantwortungsvoll«, »ethisch«, »menschenzentriert« – stabilisiert diesen Prozess, ohne ihn zu bremsen.

Die formale menschliche Kontrolle bleibt bestehen. Doch wenn Entscheidungen zunehmend auf algorithmischen Auswertungen beruhen, verschiebt sich die Verantwortung faktisch. Der Mensch wird zum Letztabzeichner maschineller Vorschläge. Die Geschwindigkeit der Maschine definiert den Handlungsspielraum des Menschen.

Beschaffung ist in diesem Kontext kein administratives Detail. Sie ist der Ort, an dem entschieden wird, ob der Staat seine militärische Zukunft an proprietäre Modelle und intransparente Trainingsdaten bindet. Sie ist der Punkt, an dem Souveränität gegen Effizienz eingetauscht wird.

Wer das als bloße Modernisierung beschreibt, verharmlost die Tragweite. Es geht nicht um bessere Software im Gefechtsstand. Es geht um die strukturelle Integration algorithmischer Entscheidungslogiken in die Organisation von Gewalt.

Friedenspolitisch bedeutet das: Die Debatte darf sich nicht in der Optimierung von Prüfverfahren erschöpfen. Sie muss die Logik des Wettlaufs selbst hinterfragen. Solange militärische künstliche Intelligenz als unverzichtbares Mittel geopolitischer Konkurrenz gilt, wird »Verantwortung« stets unter Vorbehalt stehen – unter dem Vorbehalt der Geschwindigkeit.

Die Studie spricht von einem »Fenster der Gelegenheit«, in dem Beschaffungsreformen genutzt werden könnten, um Prinzipien praktisch umzusetzen. Man kann das so sehen. Man kann aber auch sagen: Dieses Fenster öffnet sich in eine Welt, in der Krieg immer stärker als digital verwaltbare Operation erscheint.

Beschaffung heißt Entscheidung. Und jede Entscheidung zugunsten beschleunigter algorithmischer Aufrüstung ist eine Entscheidung über die Form künftiger Gewalt. Wer sie trifft, sollte nicht so tun, als ginge es um Verwaltungsmodernisierung. Es geht um die Frage, wie viel Automatisierung des Tötens eine Gesellschaft akzeptiert – und unter welchem Vorwand.

Quelle: Netta Goussac / Vincent Boulanin: Responsible Procurement of Military Artificial Intelligence. Stockholm International Peace Research Institute (SIPRI), Februar 2026.

About the author

Holger Elias

Studien der Journalistik und Kommunikations-Psychologie. War beruflich als Korrespondent und Redakteur bei Nachrichtenagenturen (reuters, cna usw.), für überregionale Tageszeitungen sowie für Rundfunk und Fernsehen tätig. Lebte und arbeitete knapp acht Jahre als EU-Korrespondent in Brüssel. Als Verleger und Publizist gab er knapp 140 Buchtitel heraus.

By Holger Elias

Neueste Beiträge

Archiv

Get in touch