
Image generated using ChatGPT
Meinung: KI im Krieg – Der leise Wandel der Tech-Industrie in Richtung Schlachtfeld
Die Debatte über autonome Waffen, Technologie-Sicherheitsrichtlinien und KI-Ethik im Militär ist seit langem im Gange, doch die letzten Tage haben bedeutende Entwicklungen gebracht. Führungskräfte von OpenAI, DeepSeek und sogar dem Gründer von Spotify kündigten neue Vereinbarungen zur Zusammenarbeit mit Regierungen bei Verteidigungstechnologien und strategischer KI an
Die Spannungen rund um den Einsatz von künstlicher Intelligenz in der Kriegsführung haben sich in den letzten Tagen verstärkt. In diesem Monat haben mehrere Technologieunternehmen neue strategische Partnerschaften mit Regierungen zur Entwicklung von Verteidigungsprojekten angekündigt. Und wie so oft im Bereich der KI hat es in den letzten Monaten eine deutliche Veränderung in der Herangehensweise an KI für militärische und Waffenentwicklung gegeben.
Vor wenigen Tagen gaben OpenAI und die US-Regierung einen Vertrag über 200 Millionen Dollar zur Entwicklung von KI-gestützten Verteidigungswerkzeugen bekannt. Details bleiben rar, wobei Beamte „administrative Operationen“ als primäre Anwendung betonen.
Unterdessen hat der schwedische Unternehmer und Spotify-Gründer Daniel Ek das deutsche Unternehmen Helsing mit einer Investitionsrunde von 600 Millionen Euro unterstützt. Helsing, das ursprünglich auf Softwaretechnologie spezialisiert war, entwickelt sich nun in Richtung Drohnen, U-Boote und Flugzeugentwicklung.
Reuters hat kürzlich enthüllt, dass DeepSeek Chinas Militär und Geheimdienstoperationen unterstützt. Ein hochrangiger US-Beamter sagte, dass das AI-Startup dabei hilft, die Herausforderungen im Handelskrieg zwischen den USA und China zu lösen, und sein Open-Source-Modell unterstützt die chinesische Regierung bei Überwachungsoperationen.
Technologiegiganten arbeiten auf eine Weise mit Regierungen zusammen, die wir nicht gewohnt sind zu sehen – zumindest nicht so öffentlich – und sie engagieren sich in Aktivitäten, die traditionell nicht Teil ihrer Rolle waren, wie zum Beispiel hochrangige Technologie-Führungskräfte, die der US-Armee-Reserve beitreten.
Die Abteilung 201 der Armee: Das Executive Innovation Corps ist ein Bemühen, leitende Technologie-Manager zu rekrutieren, die in Teilzeit im Heeresreservat als Senior-Berater dienen, um schnelle und skalierbare Technologielösungen für komplexe Probleme zu leiten. ⤵️ https://t.co/95LjcCmbYe
— U.S. Army Reserve (@USArmyReserve) 24. Juni 2025
Was ist los?
Eine Veränderung in der Sprache
Tech-Unternehmen sind von „Wir würden niemals KI für militärische Zwecke einsetzen“ zu „Vielleicht löschen wir diese Klausel stillschweigend aus unseren Richtlinien“ zu „Großartige Neuigkeiten, wir bauen jetzt KI-gesteuerte Waffen für die Regierung!“
gewechselt. Zumindest scheint das dem aufmerksamen Beobachter so.
Noch vor kurzem schienen KI-Giganten stolz darauf zu sein zu erklären, dass sie niemals militärische Anwendungen unterstützen würden, aber etwas hat sich geändert. Google ist hierfür ein großartiges Beispiel.
Im Jahr 2017 startete das US-Verteidigungsministerium das Project Maven, das Algorithmic Warfare Cross-Functional Team, eine Initiative zur Integration von KI in militärische Operationen. Google war anfangs beteiligt, doch interne Proteste – angetrieben durch die ethischen Bedenken der Mitarbeiter – veranlassten das Unternehmen zu einem vorübergehenden Rückzug.
Letztes Jahr gab es erneut eine starke Tendenz zu militärischen Aktivitäten, und fast 200 Google DeepMind-Mitarbeiter drängten das Unternehmen dazu, die Militärverträge fallen zu lassen.
„Jede Beteiligung an Militär und Waffenherstellung beeinträchtigt unsere Position als Führer in ethischer und verantwortungsbewusster KI und widerspricht unserer Mission und unseren ausdrücklich formulierten KI-Prinzipien“, schrieben die besorgten Mitarbeiter.
Dieses Mal war Googles Reaktion, zu warten und still seine KI-Ethikrichtlinien zu aktualisieren, indem sie den Teil entfernten, in dem sie sagten, sie würden niemals KI-Technologie entwickeln, die Schaden anrichten könnte. Demis Hassabis, der Leiter von Google AI, erklärte, dass sie sich nur an Veränderungen in der Welt anpassen würden.
Während der Fall von Google die sich entwickelnde Beziehung zwischen KI und militärischer Nutzung veranschaulicht, ist dies nur ein Beispiel für eine breitere, branchenweite Verlagerung hin zu Verteidigungszielen.
KI verändert das Militär und den Verteidigungssektor
Die Einführung von Project Maven, oder wie einige es nennen könnten, „als die US-Regierung erkannte, dass große Sprachmodelle im Krieg äußerst nützlich sein könnten“, offenbarte einen der Gründe, warum die US-Regierung an KI interessiert ist.
Die Fähigkeiten von KI-Systemen, enorme Datenmengen zu verarbeiten, Objekte auf dem Schlachtfeld zu identifizieren und Bilder zu analysieren, sind besonders attraktiv im Verteidigungssektor.
Verbesserte Analysen, jenseits menschlicher Fähigkeiten
Seit 2022 integrieren sowohl die Ukraine als auch Russland KI-Systeme in ihre militärischen Operationen.
Die ukrainische Regierung hat sich mit Technologieunternehmen zusammengetan und mehrere Strategien eingesetzt, um das Beste aus großen Sprachmodellen herauszuholen. Sie hat kürzlich 2 Millionen Stunden an Kampffeldaufnahmen verarbeitet—das entspricht 228 Jahren an Videomaterial—um KI-Modelle für militärische Prozesse zu trainieren. Wie viele Menschen wären wohl nötig, um so viele Daten zu analysieren?
„Das ist Nahrung für die KI: Wenn du eine KI unterrichten willst, gibst du ihr 2 Millionen Stunden (Video), sie wird etwas Übernatürliches,“ erklärte der Gründer des gemeinnützigen digitalen Systems OCHI, Oleksandr Dmitriev. Das Filmmaterial kann die Leistung von Waffen optimieren und dazu beitragen, Kampftaktiken zu verbessern.
Ein weiteres KI-System, Avengers, ist die von der Innovationszentrum des ukrainischen Verteidigungsministeriums entwickelte KI-gestützte Intelligenzplattform, die Live-Videos von Drohnen verarbeitet und wöchentlich bis zu 12.000 feindliche Einheiten identifiziert.
Drohnen: Eine begehrte Ware auf dem Schlachtfeld
Drohnen auf dem Schlachtfeld – oft als „Tötungsmaschinen“ bezeichnet – gehören derzeit aufgrund ihrer Autonomie, Präzision und geringen Kosten zu den wertvollsten Technologien in der modernen Kriegsführung. Diese Roboter ermöglichen es kriegführenden Nationen, hochwirksame Angriffe durchzuführen, ohne menschliche Piloten zu gefährden und zu einem Bruchteil der traditionellen Kosten.
Bis zum Mai dieses Jahres hatte Russland über 3.000 Veter-Kamikaze-Drohnen in der Ukraine stationiert. Diese Systeme sind in der Lage, Ziele zu identifizieren und Angriffe autonom auszuführen.
Vor wenigen Tagen haben ukrainische Soldaten die Gogol-M Drohne eingesetzt, eine „Mutterschiff“-Drohne, die bis zu 300 Kilometer zurücklegen kann, andere Drohnen tragen, Radar durch Flüge in niedrigen Höhen vermeiden und den Boden unter sich scannen kann, um feindliche Truppen zu erkennen und anzugreifen.
Laut The Guardian kostet jeder Angriff mit dieser leistungsstarken Drohne etwa $10.000, während ein Raketensystem mit etwas älterer Technologie zwischen $3 und $5 Millionen gekostet hätte.
Das brandneue Startup Theseus sammelte schnell 4,3 Millionen Dollar ein, nachdem seine jungen Gründer im letzten Jahr einen Beitrag auf der Social-Media-Plattform X geteilt hatten, in dem sie sagten, dass sie eine Drohne für weniger als 500 Dollar gebaut hatten, die ohne GPS-Signal fliegen konnte.
wir haben einen <$500 Drohne entworfen, 3D-gedruckt und gebaut, der GPS-Koordinaten ohne Signal mithilfe einer Kamera + Google Maps berechnet
in 24h pic.twitter.com/8P2QoQMNbW
— Ian Laffey (@ilaffey2) 18. Februar 2024
Obwohl die Drohnentechnologie noch nicht so präzise ist, wie einige Entwickler es hoffen – insbesondere wenn sie durch Wetterbedingungen beeinträchtigt wird, die ihre „Sichtbarkeit“ reduzieren – hat sie großes Potenzial in der Branche gezeigt.
Eine schwer zu erreichende globale Übereinstimmung
Es sind nicht nur Krieg führende Länder oder die weltweit führenden Mächte, die neue, von KI angetriebene Technologien zur Verteidigung entwickeln. Viele Nationen integrieren seit Jahren KI in ihre Bemühungen um Cybersicherheit und die Entwicklung autonomer Waffen. Dies ist kein Phänomen, das erst 2025 auftaucht.
Seit 2014 versucht die Vereinten Nationen, ohne Erfolg, mit mehreren Ländern Regulierungsrahmen zu vereinbaren.
Über 90 Nationen trafen sich kürzlich bei der UN-Generalversammlung in New York, um über die Zukunft von KI-gesteuerten autonomen Waffen und deren Regulierung zu diskutieren. Sie konnten keinen Konsens erreichen, und die Generalversammlung hat nur eine unverbindliche Resolution von 2023 verabschiedet, die vor der Notwendigkeit warnt, sich mit tödlichen autonomen Waffensystemen (LAWS) auseinanderzusetzen.
Die große Debatte dreht sich nun darum, ob ein globales Rahmenwerk implementiert werden sollte oder nicht. Viele Länder stimmen der Notwendigkeit von neuen globalen Richtlinien zu, die private KI-Unternehmen und Nationen regulieren können. Andere Länder, wie die USA, China, Russland und Indien, bevorzugen es, die aktuellen internationalen Gesetze beizubehalten und, unabhängig voneinander, neue für jede Nation gemäß ihren lokalen Bedürfnissen – oder Interessen – zu schaffen. Und wir haben gerade miterlebt, wie chaotisch der Prozess der Schaffung neuer KI-Regulierungen war, sogar auf der staatlichen Ebene in Kalifornien.
Tech-Unternehmen immer stärker involviert
Aktivisten wie Laura Nolan von Stop Killer Robots sorgen sich um den Mangel an Sicherheitsmaßnahmen und rechtlichen Rahmenbedingungen, die die Weiterentwicklung von Tech-Unternehmen bei der Entwicklung autonomer Waffen und KI-Software für das Militär kontrollieren.
„Wir vertrauen normalerweise nicht darauf, dass sich Industrien selbst regulieren… Es gibt keinen Grund, warum Verteidigungs- oder Technologieunternehmen vertrauenswürdiger sein sollten,“ sagte Nolan gegenüber Reuters.
Im Jahr 2024 enthüllten Forscher, dass chinesische Institutionen das Open-Source-Sprachmodell Llama von Meta für militärische Zwecke nutzen. Das Pentagon schloss einen Vertrag mit Scale AI zur Entwicklung von Thunderforge—ein KI-Projekt zur Modernisierung der militärischen Entscheidungsfindung. Und OpenAI ging eine Partnerschaft mit dem Militärunternehmer Anduril ein—einem Verteidigungsverbündeten des US-Militärs, Großbritanniens, der Ukraine und Australiens.
Verteidigungs-Start-ups haben auch in Europa an Boden gewonnen, nicht nur in der Entwicklung neuer Technologien und Projekte, sondern auch bei der Anziehung von Top-Talenten.
Eine komplizierte Entwicklung
Ein weiterer eng mit der Beteiligung von Technologieunternehmen an nationalen Verteidigungsstrategien verbundener Faktor ist der Nationalismus. Immer mehr Softwareentwickler und KI-Experten entscheiden sich dafür, an Projekten zu arbeiten, die mit ihren Idealen und kulturellen Wurzeln übereinstimmen, anstatt einfach höhere Gehälter zu verfolgen. Einige haben sogar Jobs in den USA abgelehnt, die das doppelte Gehalt boten – wie beispielsweise Google oder OpenAI – um sich europäischen Unternehmungen wie zum Beispiel Helsing anzuschließen.
Die Fäden von Politik, Technologie, Nationalismus und ideologischen Kämpfen verweben sich zunehmend miteinander und lassen dabei oft Überlegungen zu Ethik, Moral und Humanismus hinter sich.
Aktuelle Entwicklungen machen deutlich, dass Technologieriesen eine enorme Rolle in militärischen und nationalen Verteidigungsanstrengungen rund um den Globus spielen. Die Entwicklung autonomer Waffen und kriegsbezogener Technologien schreitet in einem ultraschnellen Tempo voran, während Bemühungen der Vereinten Nationen, internationale Abkommen und Vorschriften für die Zukunft der Menschheit zu etablieren, zunehmend minimiert erscheinen.
Ohne internationale Abkommen – und mit ehrgeizigen Technologieunternehmen, die von Regierungen unterstützt werden, um die mächtigsten Waffen der Welt mit KI zu entwickeln – was hält die Zukunft für die Menschheit in den kommenden Jahren bereit?