Robotik: Auf den fahrenden Zug aufspringen

Dienstag, 29. März 2016

Automatisierte Systeme sind im Alltag vielfach bereits unersetzbar, ihre militärische Anwendung ist umstritten. Dem Umgang mit der Risikotechnologie widmete sich eine Fachtagung an der Bundesakademie.

Ein Mann versucht, einen vierbeinigen Roboter seitlich umzuwerfen.

Mensch versus Maschine? Hier der Prototyp eine autonomen Lastenträgers für das US Marine Corps, entwickelt von Boston Dynamics, bei einer Vorführung im September 2012.
Foto: US Army/Joint Base Myer-Henderson Hall/Rachel Larue

"Stellen Sie sich vor, Sie möchten an einem Sonntagmorgen einen Ausflug in die Berge unternehmen. Sie gehen in die Garage und möchten in Ihr Auto einsteigen. Doch da müssen Sie feststellen, Ihr Auto ist bereits weg, denn es hat sich bereits früher dazu entschieden an den See zu fahren." Mit diesem Beispiel verdeutlichte Professor Axel Schulte vom Institut für Flugsysteme der Universität der Bundeswehr München, was er als „Autonomie“ definiert: Das Arbeitssystem setzt sich selbst Arbeitsziele, die es selbständig plant und durchführt.

Welche Rolle hat der Mensch noch in solchen "autonomen Systemen" und inwieweit bleiben ihm Steuerungsfunktionen – mit dieser Thematik beschäftigte sich die Fachtagung "Künstliche Intelligenz und autonome Maschinen – Auswirkungen der Robotik auf die Gesellschaft und ihre Sicherheit" am 15. März 2016 an der Bundesakademie für Sicherheitspolitik in Kooperation mit dem Kommando Luftwaffe. Immer mehr lassen wir uns durch Algorithmen das Leben vereinfachen und Entscheidungen abnehmen. Was bedeutet das für unsere Gesellschaft und Politik sowie für ethische und moralische Fragen von Zurechnung und Verantwortung?

Risiko Kontrollverlust bei immer größerem Abstand
zwischen Mensch und Geschehen

Das von Schulte beschriebene Szenario halten Experten, wie auch er selbst, allerdings für sehr unrealistisch. Ein solches Verhalten künstlicher Intelligenz wäre neben den ethisch-moralischen Bedenken auch nicht profitabel. Wer kauft sich ein Gerät, das am Ende nicht das tut, was man will? Schulte sieht die Entwicklung der Automatisierung auf dem Weg dahin, dass technische Assistenten immer mehr Aufgaben des Menschen übernehmen, der Mensch jedoch immer noch integraler Bestandteil des Systems bleibt. Diese Verschiebung beschreibt er als "dicker werdende Schicht zwischen dem Menschen und dem physischen Geschehen". Das Risiko bestehe darin, dass der Abstand zwischen Mensch und Geschehen einen Kontrollverlust in sich bergen könne, wenn menschliche Bediener nicht mehr in der Lage seien, die Auswirkungen ihres Knopfdrückens abzuschätzen.

Aus diesem Grund arbeitet Schulte mit seinem Team am Konzept eines "Mensch-Maschine-Teaming", in dem beide in einem kooperativen Verhältnis anstelle eines hierarchischen stehen. Der technische Assistent soll in Abhängigkeit von der Leistungsfähigkeit des Menschen unterschiedlich intensiv intervenieren. Von einer kleinen Erinnerung, von dem Vorschlagen von Alternativen bis hin zur Übernahme von Teilaufgaben; im letzteren Fall muss die Maschine eigene Entscheidungen treffen.

Ein zweisitziges Auto ohne Fahrer in Bewegung auf der Straße

Wie weit dürfen Entscheidungen autonomer Syteme künftig reichen? Sowohl im zivilen Bereich, wie hier beim "Google self-driving car", …
Foto: Google X/Marc van der Chijs/CC BY-ND 2.0

Doch was passiert mit Entscheidungen, die die Maschine und nicht der Mensch trifft? Wem kann die Handlungsauswahl zugerechnet werden? Wer ist für die Folgen verantwortlich? Akzeptieren wir Fehler bei Maschinen? Wesentliche Fragen stehen noch offen, und die sollten in einer breiten gesellschaftlichen Debatte beantwortet werden, forderte Björn Schmitz-Luhn vom "Cologne Center für Ethics, Rights, Economics and Social Sciences of Health" der Universität zu Köln. Derzeitige normative Konzepte von "Fehler" müssten Gesellschaft und Politik bei einer zunehmenden Automatisierung überdenken.

Besonders die Diskrepanz zwischen der Akzeptanz menschlicher und maschineller Fehler fand in der Diskussion an der Bundesakademie Beachtung. Während wir bei menschlichen Irrtümern in der Regel relativ tolerant seien, so Schmitz-Luhn, gingen wir davon aus, dass die kommenden autonomen Systeme fehlerfrei arbeiteten. Bei den heutigen Systemen liege unsere Fehlertoleranz noch in einem Mittelfeld: Trotz einer gewissen Anzahl von Flugzeugabstürzen setzten wir uns immer wieder in Verkehrsmaschinen. Doch übertrügen wir nach und nach immer mehr Entscheidungen auf automatisierte Systeme. Schmitz-Luhn stellte daher weitergehende Fragen in den Raum: "Welche Entscheidungen sehen wir als 'menschlich' an? Welche ethischen Entscheidungen wollen wir selbst treffen?"

Ein vierrädriger Roboter mit Überwachungskamera, in olivgrünem Tarnanstrich

… als auch bei militärischer Verwendung, hier der unbewaffnete Grenzschutzroboter "Guardium" der israelischen Armee.
Foto: IDF/Zev Marmorstein

Im zweiten Abschnitt der Fachdiskussion betonte der Völkerrechtler Thilo Marauhn von der Justus-Liebig-Universität in Gießen die Bedeutung einer differenzierenden Terminologie in diesem Umfeld. Mit Begriffen wie "Drohnen" oder "Kampfdrohnen" seien häufig persönliche Wertungen verbunden. Neutraler handele es sich bei "Drohnen" um unbemannte Flugkörper, die ein Trägersystem und keine Waffe seien. Daher seien "unbemannte militärische Systeme" auch keine Mittel, sondern eine Methode der Kriegsführung. Ihre Besonderheit bestehe darin, dass die Bodenstation, von der aus etwa Flugkörper gesteuert wird, und der Flugkörper selbst weit räumlich voneinander getrennt eingesetzt werden können. Aus diesem Grund betrachtet Marauhn die umgangssprachlich so bezeichneten "Drohnen" durchaus als legitime militärische Systeme.

Doch mit Blick auf die Rechtslage in internationalen und nicht-internationalen bewaffneten Konflikten stößt auch Marauhn auf einige offene Fragen. Er sieht zukünftig besonders die Herausforderung darin, wie sich militärische Befehls- und Kontrollketten ("command and control") durch die zunehmende Automatisierung verändern und welche Stellschrauben in der Rüstungskontrolle eingesetzt werden können. Entscheidend sei die Verzahnung von menschlichen und automatisierten Entscheidungsprozessen, also die "Mensch-Maschine-Schnittstelle".

Marcel Dickow, Forschungsgruppenleiter Sicherheitspolitik der Stiftung Wissenschaft und Politik, fragte: "Ist die Robotik ein 'game changer' in der Sicherheitspolitik?" Besitze diese also eine ganz neue technologische Qualität oder sei sie nur ein weiterer, kleiner Fortschritt wie viele andere? Einer der Hauptfaktoren, mit denen Robotik ihre ganz neuartigen Eigenschaften aufweist, sei der Umstand, dass sie neue Akteure auf das Spielfeld rufe. So habe Mark Zuckerberg erst dieses Jahr 25 Hochleistungsrechner im Wert von rund 1,1 Millionen Euro für deutsche und europäische Forschungseinrichtungen, unter anderem der Technischen Universität Berlin, gesponsert. Für die militärische Forschung, Rüstungsindustrie und auch Rüstungskontrolle spiele die zivile Nutzung eine enorme Rolle. Diese treibe Forschung und Entwicklung auf dem Gebiet der Robotik an, und die militärische Seite kaufe sich dieses Wissen ein. Projiziere man die gegenwärtigen technologischen Entwicklungen in die Zukunft, ende man bei einem System, bei dem der menschliche Operateur nur noch ein Veto-Recht beim sonst vollkommen autonomen Maschinenhandeln habe, so Dickows Prognose. Deshalb stehe eine ethisch-moralische Diskussion aus, ob wir wollen, dass eine Maschine über Leben und Tod entscheiden darf.

Deutschland trägt Verantwortung in der Expertenkommission
der "UN Convention on Certain Conventional Weapons"

Für den Sicherheitspolitikexperten gibt es keinen Zweifel: Autonome Systeme seien eine Risikotechnologie. Nicht nur technologische Fachkreise, sondern auch Streitkräfte selbst trügen Bedenken über diese Risiken an die Politik heran. Ebenso teilten Akademiker und Friedensaktivisten, wie auch weite Teile der Gesellschaft, diese Besorgnisse und hegten Vorbehalte gegen die Entwicklung autonomer Waffensysteme.

Internationale Initiativen nehmen automatisierte Systeme als Thema auf, wie etwa die Mitgliedsstaaten der "UN Convention on Certain Conventional Weapons". Im April 2016 wird bereits das dritte internationale Expertentreffen zu dem Thema "Lethal Autonomous Weapons Systems" (LAWS) stattfinden und Deutschland hat zum zweiten Mal den Vorsitz in der Expertenkommission. Dadurch eröffne sich, so die Auffassung Marauhns und Dickows, nicht nur ein Handlungsspielraum, sondern so nehme die Bundesrepublik auch eine Schlüsselrolle ein. Die aktuellen Regierungsparteien hätten in Bezug auf automatisierten Waffengebrauch bereits im Koalitionsvertrag festgehalten, sich für eine Ächtung von LAWS einzusetzen. Die technologische Entwicklung sei nicht aufzuhalten, meint Dickow aber, daher sei es umso wichtiger, sich international auf Einsatzregeln und eine rote Linie in der automatisierten Kriegsführung zu verständigen. Ziel müsse es sein, eine Regulierungsstrategie für eine Risikotechnologie zu entwickeln. Dies sei Aufgabe der politischen Entscheidungsträger.

Am Ende der Tagung blieb ein ambivalentes Gefühl darüber, was auf uns zukommen mag, trotz der vielen Chancen der Technik. Gefährliche Einsätze, die keinen Waffengebrauch erfordern – wie das Minenräumen, die gesamte Logistikkette oder die Notrettung von verletzten Personen – könnten von Maschinen immerhin übernommen werden, ohne in moralische Dilemmata zu geraten.

Eines wurde allen Teilnehmerinnen und Teilnehmern der Diskussion an der Akademie bewusst: Der Zug der Automatisierung ist bereits in voller Fahrt, und wir müssen jetzt eine gesellschaftliche und politische Debatte führen, um noch aufspringen zu können. Die Bundesakademie für Sicherheitspolitik wird das Thema "Robotik" weiterverfolgen.

Autorin: Anne-Kathrin Herlitze