Ethische Robotik: Wir müssen mal diskutieren, liebe Politiker

Was passiert, wenn ein Rechner eigenständig und zufällig Dinge im Darknet einkauft und dabei Gesetze verletzt? Sind die Programmierer der Software dazu zuständig? Ist es der Rechner selbst, der ja nur das ausführt, was wir ihm eingeben? Oder ist am Ende keiner Schuld, weil es für solche Fälle noch gar kein Recht an sich gibt?

Wer jetzt meint, das Szenario klänge unglaubwürdig, der irrt. Denn eine solche Kunstaktion gibt es immer noch: „Random Darknet Shopper“ der Mediengruppe Bit.nik. Als die Installation das erste Mal in St. Gallen zu sehen war, gab es einen regelrechten Rechtsstreit um die Frage, wer denn da jetzt die Grenzen der Gesetzgebung übertreten habe. Denn wer wird zu Verantwortung gezogen, wenn ein Bot Drogen, Waffen oder Hacking-Zubehör kauft und das Päckchen von der Polizei konfisziert wird? Darüber ging manche Woche ins Land bis endlich die Schweizer Justiz zu einem Urteil kam: Roboter in der Schweiz dürfen im Darknet einkaufen, nur der Besitz mancher Dinge ist verboten. Wie zum Beispiel LSD. Seltsamerweise stieß sich die Justiz dann wohl nicht an gefälschten Pässen…

Ethik trifft Roboter

Wir sind uns gar nicht bewußt, wieviele tägliche Transaktionen schon automatisch von der Hand gehen. Das Internet der Dinge, Sie wissen schon liebe Leser, der Kühlschrank mit dem Internet, der bisher immer noch nicht im Alltag vorhanden ist, hat unmerklich unser Leben verändert. Industrie 4.0 ist das Schlagwort: Auf einmal sendet der Smartmeter die Abrechnung für die Heizung selbstständig zum Stromanbieter, mit einem Knopfdruck im Büro können wir schon mal die Rolladen herunterlassen oder Waagen übermitteln per Smartphone unsere Daten an Anbieter, die uns dann anfeuern vielleicht doch ein wenig mehr im Park herumzulaufen als bisher. Und Transaktionen an der Börse? Das machen die Computer schon längst unter sich aus, dazu genügen Sekundenbruchteile. Da sind wir Menschen schon längst außen vor.

Noch haben wir keine selbstfahrenden Autos in unseren Straßen – und ich glaube auch nicht, dass der Trend wirklich gesellschaftsfähig wird, denn das Bedürfnis Herr über den Verkehr zu sein und gegebenenfalls kräftiger auf die Tube zu drücken als der Nebenmann ist nur allzumenschlich. Drohnen, die selbstständig Amazon-Pakete liefern, Roboter, die den DHL-Paketboten verdrängen – das sind keineswegs Zukunftsszenarien. Nur: Die Frage, wie wir ethisch damit umgehen ist eine, die momentan nicht von Politikern gestellt wird. Dabei wäre sie dringend, dringend nötig.

Ein Unfall mit dem selbstfahrenden Auto – wer ist schuld?

Im Juli 2016 machte ein Vorfall Schlagzeilen und schaffte es gar in die Tagesschau – wobei das nicht der erste Unfall mit einem selbstfahrenden Auto war, Autos ohne Fahrer waren schon früher in einandern gekracht. Aber diesmal hatte der Fahrer erstens den Automatischen Piloten eingeschaltet und zweitens war der Ausgang tödlich. Eine späte Reaktion deutscher Verantwortlicher: Tesla möge doch bitte den Begriff des Autopiloten nicht mehr in Deutschland verwenden, der führe in die Irre.  Wenn wir sonst nichts Dringenderes zu diskutieren haben als das, dann ist ja gut. Dabei müsste der Tesla-Unfall eigentlich zu einer Diskussion darüber führen, in wieweit selbstfahrende Autos – die ja auch in Deutschland mehr und mehr in den politischen Focus rücken, oft werden die ja als Argument für das Zwei-Klassen-Internet angeführt – für ihre Taten verantwortlich sind. Bei dem erwähnten Fall mag das noch menschliches Versagen und die Schuld des Fahrers gewesen sein, der auf den automatischen Mechanismus umstellte und sich offenbar sonst nicht kümmerte. Doch so unwahrscheinlich selten dürften solche Unfälle nun nicht werden, wenn denn wirklich flächendeckend die Selbstfahrautos kommen. Und neben Tesla haben wir noch Google und noch den ein oder anderen Kandidaten für die Produktion.

Wobei – was passiert eigentlich, wenn selbstfahrende Züge Unfälle bauen? Man denke mal nur an den Skytrain in Düsseldorf oder an einige U-Bahn-Züge, die ja schon längst ohne Fahrer auskommen. Wenn die selbstständig agieren, wo ist dann die Schuld zu suchen? Beim Programmierer? Beim Technischen Wartungsdienst? Bei der Technik selbst? Wir kratzen momentan an eine Oberfläche, unter der sich ein ganzer Mariannengraben von Fragen befindet, sind aber nicht bereit uns mit diesen zu beschäftigen. Und die Politik, so hat es den Anschein, kümmert sich bis auf Einzel- und Kleinigkeiten nicht unbedingt darum. Wichtiger ist ja, dass Programmieren in der Grundschule gelernt wird.

Was MINT nicht leisten kann: Ethik

Nun habe ich nichts gegen Programmieren in der Grundschule oder eine vernünftige Einbindung von Medienkompetenz – wenn man denn mal richtig definiert, was man darunter versteht, frage zwei Medienpädagogen und du bekommst fünf Meinungen zum Team. Aber das löst ja eigentlich nicht das kommende Dilemma, das löst nicht die Frage nach Schuld und Sühne. Während die Science-Fiction sich in Büchern, Filmen und Serien schon länger mit der Frage herumschlägt, war das Themenfeld der Ethik gegenüber Maschinen lange Zeit auch nur theoretisch denkbar. Maschinen denken nicht, also ist der Mensch letzten Endes immer für sie verantwortlich. Fertig. Und wer MINT fördert, der fördert dann auch automatisch eine bessere Technik, die immer weniger Fehler macht, da der Mensch immer weniger Fehler macht, der diese Technik konstruiert. Basta.

Mittlerweile erreichen wir aber einen Punkt, an dem Maschinen selbstständig Entscheidungen treffen und wir diese eben nicht auf Dauer kontrollieren. Beim Hochfrequenzhandel bedienen sich die Trader Algorithmen, die auf bestimmte Begriffe blitzartig reagieren. Und das so schnell, dass wir Menschen da gar nicht hinterher kämen. Wer kann behaupten, er könnte wirklich Eingriff nehmen bei Facebook und dafür sorgen, dass er alle Meldungen bekommt, die seine Bekannten posten? Wir selbst können da in dem Fall als Nutzer nicht unbedingt eingreifen – Listen helfen auch nur beschränkt – und Algorithmen sortieren ja schon längst die Nachrichten für uns. Was eine Frage des Vertrauens aufwirft: Glauben wir wirklich, dass die wichtigen Informationen über Facebook an uns herangetragen werden? Und warf man Facebook nicht auch schon Manipulation vor? 

Diese Fragen, die momentan im Kommen sind, werden von denjenigen, die verstärkt Naturwissenschaften studieren, die Computerprogramm programmieren oder die Ingenieure werden vermutlich eher nicht unbedingt gelöst. Denn deren Aufgabe ist ja nicht darüber nachzudenken, ob Maschinen ein Bewusstsein haben und was wir machen, wenn die erste Maschine ein solches besitzt. Das ist eindeutig die Aufgabe der Geisteswissenschaften. Und die werden von der Politik sträflich übersehen bei der ganzen Geschichte. Es ist halt ein wenig eindimensional zu meinen, man müsse nur den MINT-Zweig der Bildung ankurbeln – was wirtschaftlich was bringt, keine Frage, Kultur kann man nicht greifbar exportieren, Computerchips dagegen schon. Man braucht auf jeden Fall auch die andere Komponente. Nur: Die findet in der Gesellschaft nicht statt oder wenn, dann unter Ausschluss der Öffentlichkeit.

Was also als Nächstes? Nur Eines noch.

Dabei gibt es längst schon Experten in der Welt, die sich mit dem Thema beschäftigen. Kate Darling etwa. Ronald Arkin. Und auch in Deutschland gibt es Wissenschaftler, die kürzlich in Aarhus diskutierten. Großen Widerhall fand das außer in den üblichen Technik- und Geek-Kanälen nun nicht. Das Thema Roboterethik kommt im Bundestag nicht vor. Bis zu dieser Woche jedenfalls, denn da hat die AfD bekannt gegeben, sie nutze demnächst Bots – eigenständig handelnde Chatprogramme – für den Wahlkampf 2017. Selbstständig handelnde Maschinen, die Botschaften für die AfD twittern, facebooken, Artikel schreiben. Denn das können Maschinen auch schon längst eigenständig. Ohne, dass es uns beim Lesen großartig auffiele. Die Reaktion der Parteien darauf? Die lehnen den Einsatz komplett ab. Das kann man so machen, was aber an der grundsätzlichen fundamentalen Sache glatt vorbeigeht: Wir werden das erste Mal einen Wahlkampf erleben, bei dem Maschinen eine große Rolle spielen. Und wir wissen doch nur zu gut: Wenn die AfD das mit Erfolg praktiziert – dann ist der Bann eh gebrochen und demnächst haben wir es ja alle mit Bots zu tun, die bei Facebook uns ansprechen und politische Themen setzen wollen werden. Hier wäre direkt zu fragen wie ethisch oder unetisch der Gebrauch von Bots ist – dass das unterbleibt wird uns in den nächsten Jahren noch nachfolgen. Mit Sicherheit.

Bild: Roboter mit seinem Erfinder. Wikimedia Commons: Bundesarchiv, Bild 102-09312 / CC-BY-SA 3.0

 

 

Der selbstständige Journalist und Social Media Redakteur Christian Spließ begleitet Unternehmen und Organisationen bei der erfolgreichen Umsetzung von Social Media Kampagnen. Christian Spließ ist einer der Social Influencer in NRW - vor allem über Twitter und Facebook.

www.homo-narraticus.de

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert