Event-Rückblick: «ChatGPT zieht in den Krieg?»
Wenn Tech-Konzerne wie OpenAI mit dem Militär kooperieren, verschwimmen die Grenzen zwischen ziviler und militärischer KI – mit weitreichenden Folgen für Recht, Ethik und Demokratie. Die DSI brachte am 14. April Expert:innen zusammen, um diese Entwicklungen kritisch zu durchleuchten.
Am 14. April 2026 fand an der DSI die Podiumsdiskussion «ChatGPT zieht in den Krieg?» zum Thema private KI-Militärkooperationen statt. Die Veranstaltung brachte Expertinnen und Experten aus unterschiedlichen Disziplinen zusammen, um aktuelle Entwicklungen und deren Implikationen aus ethischer, rechtlicher und sicherheitspolitischer Perspektive zu beleuchten.
Auf dem Podium diskutierten Prof. Dr. Markus Christen, Geschäftsführer der DSI und Ethiker; Dr. Angela Müller, Direktorin von AlgorithmWatch CH mit Schwerpunkt auf rechtlichen und ethischen Aspekten und Dr. Myriam Dunn Cavelty, Sicherheitsexpertin und Forscherin an der ETH Zürich. Die Moderation übernahm Dr. Elif Askin von der Rechtswissenschaftlichen Fakultät der Universität Zürich, mit Expertise im öffentlichen Recht und im Bereich der Menschenrechte.
Ausgangspunkt der Diskussion bildeten aktuelle mediale Debatten, insbesondere rund um Kooperationen zwischen Technologieunternehmen wie OpenAI und staatlichen Militärinstitutionen in den USA. Diese Entwicklungen werfen grundlegende Fragen auf: Welche ethischen und rechtlichen Herausforderungen ergeben sich aus der Nutzung alltäglicher KI-Anwendungen für militärische Zwecke? In welchem Umfang sind automatisierte Entscheidungen oder autonome Waffensysteme denkbar oder zulässig? Und welche Auswirkungen hat dies auf Gesellschaft und Demokratie?
Im Verlauf der Diskussion wurden mehrere zentrale Themen hervorgehoben. Ein wichtiger Punkt war die zunehmende Machtkonzentration in der Tech-Industrie. Da zentrale KI-Technologien von wenigen grossen Unternehmen entwickelt und kontrolliert werden, entstehen Abhängigkeiten, die sowohl politische als auch gesellschaftliche Risiken bergen. Viele kritische Entscheidungen hängen letztlich vom Handeln und den Interessen dieser Akteure ab.
Zugleich wurde die Komplexität des Themas betont. Während häufig dystopische Szenarien wie autonome «Killerroboter» oder umfassende Überwachung im Vordergrund stehen, wurde auch darauf hingewiesen, dass KI-Technologien legitime und gesellschaftlich wertvolle Anwendungen ermöglichen, etwa in der Medizin oder Forschung. Diese Ambivalenz erschwert eine klare regulatorische Einordnung, da KI als Technologie sowohl positive als auch problematische Einsatzmöglichkeiten bietet.
Ein weiterer Diskussionspunkt war der bereits bestehende Einsatz von KI in militärischen Kontexten. Dieser ist keineswegs neu, da auch frühere Systeme zur Entscheidungsunterstützung genutzt wurden. Die zentrale Frage verschiebt sich daher hin zu einer normativen Bewertung: Welche Formen des Einsatzes werden gesellschaftlich akzeptiert, und wo sollten klare Grenzen gezogen werden?
Auch die mangelnde Transparenz vieler KI-Systeme wurde kritisch beleuchtet. Die sogenannte «Black-Box»-- Problematik erschwert es, Verantwortlichkeiten eindeutig zuzuweisen – etwa bei fehlerhaften oder problematischen Entscheidungen. In diesem Zusammenhang stellt sich die Frage, ob die Verantwortung eher im Design der Systeme oder in deren konkretem Einsatz liegt.
Darüber hinaus wurde diskutiert, wie Staaten KI-Technologien in verschiedenen Bereichen einsetzen, von Personalwesen und Logistik bis hin zur Bildgenerierung und Forschung. Die Abgrenzung zwischen realen Anwendungen und überzeichneten Darstellungen in Medienberichten ist dabei oft schwierig.
Ein intensiv diskutiertes Thema aus dem Publikum war das Konzept der «kognitiven Kriegsführung». Hierbei steht weniger die technische Leistungsfähigkeit von KI im Vordergrund, sondern deren Einfluss auf Wahrnehmung, Meinungsbildung und gesellschaftliches Vertrauen. Desinformation und psychologische Effekte können erhebliche Auswirkungen auf demokratische Prozesse und den gesellschaftlichen Zusammenhalt haben, auch ohne hochentwickelte KI-Systeme, wie Beispiele wie Cambridge Analytica zeigen.
Abschliessend wurde deutlich, dass die Entwicklung und Anwendung von KI stark durch Expert:innen geprägt ist, die häufig in privaten Unternehmen tätig sind. Dies wirft die Frage auf, wie Forschung und akademische Institutionen stärker eingebunden und gefördert werden können, um eine breitere und unabhängige Wissensbasis zu gewährleisten.
Die Podiumsdiskussion zeigte eindrücklich, wie vielschichtig und interdisziplinär die Auseinandersetzung mit KI im militärischen Kontext ist. Sie bot Raum für differenzierte Perspektiven und einen offenen Austausch zwischen Fachleuten und Publikum. Wir danken unseren Panelistinnen und Panelisten sowie allen Teilnehmenden für die engagierte Diskussion, und den DSI Communities Ethics und AI & Law für die Organisation.