Teil 2: Warum Zivilklauseln zur Verteidigung der Demokratie notwendig sind. Eine interdisziplinäre Vermessung der Verantwortung in Zeiten von KI-Kriegen und Big Tech-Allianzen.
Es war der 6. März 2025, als der israelisch-palästinensische Journalist Yuval Abraham im Magazin +972 enthüllte, was viele befürchtet, aber kaum jemand ausgesprochen hatte: In Gaza kamen Chatbot-ähnliche Interfaces zum Einsatz, mit denen israelische Soldaten Zielpersonen auswählen konnten – gestützt auf KI-Modelle, trainiert mit Überwachungsdaten und sozialen Medien. Das System, intern »Lavender« genannt, funktionierte wie ChatGPT. Nur tödlich.
Die Interaktion: simpel. Die Konsequenz: tödlich. Die Ästhetik des Interface: vertraut. Es ist genau dieser Moment der Ähnlichkeit, der uns zur kritischen Frage zwingt: Wann kippt eine Alltagstechnologie in den Ausnahmezustand? Wann wird ein Sprachmodell zur Waffe?
Technologien, so hören wir oft, seien neutral. Werkzeuge, die man wahlweise zur Brotproduktion oder zum Bombenbau nutzen könne. Doch diese Metapher ist trügerisch. Denn Technologien sind nicht nur Werkzeuge – sie sind kulturelle Artefakte, gestaltet von politischen Intentionen, durchzogen von ökonomischen Interessen, gerahmt von sozialen Machtverhältnissen.
Im Zeitalter der Black Box ist Gewalt keine sichtbare Handlung mehr. Sie ist codiert. Unsichtbar gemacht. Externalisiert in Algorithmen, die auf Basis unserer Daten entscheiden, wer lebt und wer stirbt. Getötet wird nicht mehr durch direkten Befehl, sondern durch mathematische Wahrscheinlichkeit.
»Marketing or death by drone, it’s the same math«, sagte Chelsea Manning einst. Ein Satz, der mehr über den Zustand unserer Welt verrät als jedes Verteidigungsweissbuch.
Big Tech und die Logik des Krieges
Die Verbindung zwischen Silicon Valley und Pentagon ist kein Nebeneffekt – sie ist Programm. Meta, Google, OpenAI, Microsoft: Sie alle haben ihre Nutzungsbedingungen geändert, um militärischen Interessen zu entsprechen. OpenAI strich am 7. Januar 2024 jenen Satz aus seiner Policy, der eine militärische Nutzung ausschloss. Kurz darauf folgte die Partnerschaft mit Anduril, einem Rüstungsunternehmen mit direkter Anbindung ans US-Verteidigungsministerium.
Was früher als Ethik galt, ist heute Marktstrategie. Was einst als »Social Network« firmierte, ist längst ein Trainingslager für militärische KI-Systeme. Der Begriff »Defense LLaMA«, ein militärisch trainiertes Sprachmodell von Meta und ScaleAI, klingt wie ein Zitat aus einer Dystopie – ist aber Realität.
Die Grundannahme: Alles ist Datenmaterial. Und alles kann in Trainingssets verwandelt werden – auch unser Alltag, unsere Dialoge, unsere Lebenswelt. Krieg beginnt nicht mit dem ersten Schuss. Sondern mit dem ersten Klick.
Vor diesem Hintergrund erscheint die Zivilklausel der KHM wie ein Akt der Rückgewinnung. Rückgewinnung von Verantwortung, von Urteilskraft, von Kritikfähigkeit. Sie erinnert daran, dass Bildung nicht nur Wissen produziert, sondern auch Gewissen. Dass Technologie nicht nur nützlich, sondern gefährlich sein kann. Und dass es einen Unterschied macht, ob eine Hochschule Partner des Friedens oder Zulieferer des Krieges ist.
Die KHM formuliert mit ihrer Klausel ein ethisches Minimum: Forschung und Lehre ausschließlich für zivile, friedliche Zwecke. Was simpel klingt, ist revolutionär. Weil es sich nicht im technischen Begriff der Neutralität verliert, sondern Haltung einfordert. Und weil es Hochschulen als das begreift, was sie im besten Fall sind: Orte politischer Subjektwerdung.