Missing Link: Erfolglose Gespräche über Killerroboter – "Wir müssen mehr machen"

Seite 3: "Die alten Paradigmen der RĂĽstungskontrolle greifen nicht mehr"

Inhaltsverzeichnis

heise online: Treten bei den Gesprächen über Autonome Waffensysteme – und KI generell – möglicherweise Mängel des kollektiven Willensbildungsprozesses zutage? Ist unser politisches System mit dieser Frage überfordert?

Sauer: Die Schwierigkeit in diesem Feld hat damit zu tun, dass wir es nicht konkret mit fassbaren, physischen Waffensystemen zu tun haben, für die wir einen klaren Kriterienkatalog entwickeln und die wir mit entsprechenden Regeln belegen könnten. Im Vergleich zu Künstlicher Intelligenz im Militär und Autonomen Waffensystemen war die Rüstungskontrolle in der Vergangenheit – obwohl schon schwierig genug – geradezu einfach.

Im Nuklearbereich etwa lassen sich Trägersysteme klar identifizieren und hinsichtlich etwa ihrer Tragfähigkeit beschreiben. Wir können Raketen und Sprengköpfe zählen und prüfen, ob alles den vertraglichen Bestimmungen entspricht. Auch im konventionellen Bereich lässt sich genau definieren, was ein Kettenfahrzeug oder ein Drehflügler ist. Autonomie in Waffensystemen dagegen ist eine Funktion. Das heißt, dass auch bereits bestehende, vergleichsweise einfache Waffensysteme autonomisiert werden können. Ein Kampfflugzeug wie die F-16 kann auf autonomen Betrieb umgerüstet werden.

Oder nehmen Sie das System CARACaS (Control Architecture for Robotic Agent Command and Sensing) der US-Marine: Es kann auf jedem kleinen Boot installiert werden und macht mehrere solcher Boote zu einem autonom operierenden Schwarm, der größeren Kriegsschiffen als Geleitschutz dient. Künstliche Intelligenz hat also die Möglichkeit eröffnet, in Waffensystemen neue Funktionalitäten einzuführen. Das ist mit den alten Paradigmen der Rüstungskontrolle, die in der Regel sehr quantitativ ausgerichtet sind, sehr schwer in den Griff zu kriegen. Man muss viel stärker qualitativ über die neuen Technologien nachdenken und sich fragen, welche Funktionen sie bieten, was sie für die Kriegsführung bedeuten, wie sie das Verhältnis zwischen Mensch und Maschine verändern, um konkrete Linien hinsichtlich der Anwendungspraktik ziehen zu können.

Meiner Einschätzung nach gibt es da sehr viel Aufhol- und auch Forschungsbedarf. Aber wir müssen es tun, auch wenn es mühsam ist. Denn gegenwärtig haben wir ja gewissermaßen gerade mal den Anfang der Bugwelle erreicht. Da kommt ja noch viel mehr auf uns zu, was mit den gängigen Mechanismen nicht zu bewältigen ist, denken Sie zum Beispiel allein an Human Enhancement oder Biotechnologie. Dafür sind qualitative Rüstungskontrollparadigmen unabdingbar.

heise online: In vielen Gesprächen habe ich den Eindruck gewonnen, dass sich selbst Entscheidungsträger auf den höchsten Ebenen mehr und mehr der historischen Tragweite dieser Technologien bewusst werden. Die Entscheidungen, die wir heute treffen, werden zukünftige Generationen über Jahrhunderte beschäftigen. Dennoch spielen historische Argumente in der Debatte praktisch keine Rolle. Dabei sollten wir bei unseren politischen Führern doch wohl Geschichtsbewusstsein voraussetzen. Warum findet dieser – letztlich entscheidende – Aspekt so wenig Beachtung?

Sauer: Weil es kein Anreizsystem gibt, um diese größeren Linien zu bedenken. Ich stimme Ihnen vollkommen zu, schauen Sie sich allein die jüngst veröffentlichte Strategie der Bundesregierung zu Künstlicher Intelligenz (KI) an: Den militärischen Aspekt lässt sie vollkommen außen vor, reduziert die KI-Diskussion ansonsten auf Digitalisierungsstrategie und Industrie 4.0 und fragt sich, wie Deutschland innerhalb Europas und Europa im internationalen Vergleich beim Wettrennen um die wirtschaftliche Nutzung nicht den Anschluss verlieren. Das ist sicherlich alles richtig und wichtig, ist aber bestenfalls nur ein Teil der Geschichte und hinsichtlich der Fragen, die uns und vielen anderen Bürgern Sorgen bereiten, viel zu kurz gesprungen.

Es wird fast ausschließlich in den kurzfristigen, rein ökonomischen Anreizstrukturen gedacht. Die KI-Revolution wird auf die Frage reduziert, wie wir möglichst schnell möglichst viele marktfähige Produkte und Lösungen entwickeln können. Aber was diese Technologie mit unserer Gesellschaft macht, mit unserer Demokratie oder der Art, wie wir Krieg führen, wird nicht systematisch politisch abgebildet. Dabei haben wir mit den sozialen Medien bereits ein sehr anschauliches Beispiel: Noch vor wenigen Jahren haben viele gesagt, dass die sozialen Medien alles besser machen und die Demokratie in den letzten Winkel der Welt bringen würden.

Im Arabischen Frühling schwang die Hoffnung mit, dass die Menschen sich mit ihrer Hilfe vom Joch der Unterdrückung befreien könnten. Doch tatsächlich wurde der Aufstand von staatlicher Seite mithilfe der gleichen Technologien niedergeschlagen, die auch die Demonstranten benutzt hatten. Gleichzeitig unterminieren die sozialen Medien unseren demokratischen, pluralistischen Diskurs. Politik und Wirtschaft drücken dennoch auf die Tube, damit immer mehr Menschen diese Technologien nutzen.

Über die mittel- und langfristigen Folgen macht sich aber fast niemand Gedanken, weil es keinen systemischen Anreiz dafür gibt, weil es "nicht eingepreist" ist. Aus meiner Sicht bräuchten wir einen wirklich nachhaltigen Diskurs zu der Frage, was wir wirklich nutzen wollen und wofür. Mehr ist nicht immer besser, in der Zivilgesellschaft nicht und erst recht nicht beim Militär.

heise online: Wie geht es jetzt weiter?

Sauer: Der Rahmen der Vereinten Nationen ist sicherlich wichtig und die Gespräche in Genf werden wir weiter verfolgen müssen, ohne sich zu sehr davon deprimieren zu lassen. Wir dürfen uns aber natürlich nicht darauf verlassen, sondern müssen versuchen, in Deutschland und Europa mehr zu machen. Im Koalitionsvertrag der Bundesregierung steht ja seit 2013, dass wir Waffensysteme, die der menschlichen Verfügungsgewalt entzogen sind, kategorisch ablehnen. Dann könnten wir das doch auf nationaler Ebene schon mal festklopfen. Niemand hindert uns daran.

Das Bundesverteidigungsministerium könnte ein Leitliniendokument zur Nutzung von KI und autonomen Waffensystemen aufsetzen. Darin könnten zum Beispiel vollautonome Verteidigungssysteme, die auf Munition schießen, zugelassen sein. Systeme, die auf Infanterie, Panzer, Schiffe oder andere Objekte schießen, in denen sich Menschen aufhalten könnten, würden dagegen einer stärkeren menschlichen Kontrolle unterworfen sein. Das muss auch gar nicht in Stein gemeißelt sein. In dem Dokument könnte ja stehen, dass es alle fünf Jahre überprüft wird.

Angesichts der klar formulierten politischen Position, die auch vom General Ludwig Leinhos auf der Münchner Sicherheitskonferenz noch einmal unterstrichen wurde, verstehe ich nicht, was die Bundesregierung davon abhält. Ein solcher Schritt hätte sicherlich auch Auswirkungen auf die Diskussionen in Genf. Es gibt also schon Handlungsspielraum, aber es braucht auch den Willen, ihn zu nutzen. (mho)