Home / Featured / Künstliche Intelligenz hilft Bombenbauern: Wer ist nun der Böse?

Künstliche Intelligenz hilft Bombenbauern: Wer ist nun der Böse? 0

Mann im dunklen vor ComputerEs könnte ein PR Super Gau werden.
Terroristen nutzen Amazon zur Bestellung von Chemikalien zum Bombenbau. Und bekommen Vorschläge dazu, wie sie ihre Bestellung sinnvoll um weitere Bombenbestandteile ergänzen können.
Die eigentliche Brisanz liegt dabei gar nicht mal darin, dass diese Vorschläge gemacht wurden. Ich sehe als wesentlich brisanter an, dass hier ein Algorithmus vollkommen eigenständig gelernt hat wie man ein Bombe baut. Und weil niemand den Computern von Amazon gesagt hat, dass das nicht nett ist, verraten diese jedem der es wissen will, was es zum Bau einer Bombe braucht.
Ein Computer lernt wie man eine Bombe baut. Ihm fehlt aber alles was es braucht um zu erkennen, dass dieses Wissen nicht in die Welt getragen werden sollte, weil es ansonsten Menschen gibt die das nutzen um schlimme Dinge zu tun.

Die Geschichte: Amazons künstliche Intelligenz

Bereits im September gab es erste Meldungen dazu, dass der Britische Fernsehsender BBC heraus bekommen hat, dass Amazon Vorschläge zur Ergänzung von Bestellungen unterbreitet, wenn jemand anfängt seinen Warenkorb mit einzelnen Chemikalien zur Herstellung von Sprengstoff zu füllen.
Anfang November dann die nächste Nachricht. Ermittler würden sich daran stören, dass der am 31. Oktober in Schwerin festgenommene Terrorverdächtige Yamen A. automatische Empfehlungen von Amazon zur Ergänzung seiner Bestellung erhalten hätte.
So weit so gut. Ich persönlich glaube ja nicht, dass ein Terrorist anfängt bei Amazon Dinge zu bestellen die er für seinen geplanten Anschlag braucht, bevor er nicht eine vollständige Einkaufsliste hat. Die automatischen Vorschläge an sich sind mir also eigentlich weder eine Schlagzeile noch einen Bericht wert.
Was ich aber durchaus bedenklich finde ist der hinter dieser Sache stehende Punkt.

Wissen vs. Ethik

Gedankenblase mit GlühbirneEs gibt auf der Welt sicherlich viele Menschen die wissen wie man eine Bombe baut und wo man die entsprechenden Mittel kaufen kann. Diese Menschen nutzen dieses Wissen für sich, für gute oder schlechte Zwecke. Sie geben das Wissen sicherlich auch weiter. An andere Menschen bei denen sie davon ausgehen, dass diese ähnliche Zwecke verfolgen und ähnlichen moralischen Grundsätzen unterliegen wie sie selbst.
Und genau das ist der Punkt. Als Mensch wäge ich ab, welches Wissen ich wem zu welchem Zeitpunkt gebe. Ich weiß, welches Wissen in die Hände der Allgemeinheit gehört und mit welchem Wissen ich ggf. vorsichtig umgehen sollte. Ich versuche als Mensch außerdem zu vermeiden, dass Wissen über potentiell gefährliche Dinge an andere Menschen gerät, die nicht ähnliche Ziele verfolgen wie ich.
So kann es immer noch passieren, dass ein Terrorist einem anderen eine Bombenbauanleitung gibt. Und ein Sprengmeister wird dieses Wissen auch an seinen Lehrling weiter geben. Beide aus einem (aus ihrer Sicht) guten Grund. Sie verlassen sich darauf, dass derjenige dem sie dieses Wissen geben, damit in ihrem Sinne handelt.
Ein Computer tut dies nicht. Zumindest nicht automatisch.
Der beschriebene Fall zeigt das ganz gut. Die Programmierer bei Amazon haben den Algorithmus so angelegt, dass „der Computer“ mit der Zeit lernt, welche Artikel für Kunden interessant sein könnten wenn sie bestimmte Produkte bestellen. Das ist ein guter Service der wesentlich zum Erfolg von Amazon beiträgt.Die Entwickler haben dem Algorithmus aber keine Fähigkeit mitgegeben die ihn entscheiden lässt ob er bestimmte Empfehlungen auch wirklich ausspricht. Das war ganz sicher keine Absicht. Niemand bei Amazon möchte Bombenbauanleitungen veröffentlichen. Hier wurde einfach diese Möglichkeit nicht in Betracht gezogen.
Auch der zu Grunde liegende Algorithmus hat nichts „böses“ getan. Er hat gut funktioniert und genau das gemacht was er machen soll. Und trotzdem sieht man an diesem Beispiel ein Problem das wir in Zukunft mir künstlicher Intelligenz zunehmend haben werden.

Und nun? Was tun gegen „böse“ Algorithmen?

Tiefer digitaler RaumManuelles lernen vs. Deep Learning

Zunächst müssen wir zwischen dem manuellen anlernen einer künstlichen Intelligenz (KI) mit Hilfe maschinenlesbar aufbereiteter Daten und dem selbständigen lernen einer KI, dem sogenannten Deep Learning, unterscheiden.
Beim ersten Verfahren lernt eine KI anhand vorgegebener Beispiele. Als prominentes Beispiel kann hier die KI genannt werden, die anhand vieler gespielter Partien irgendwann in der Lage gewesen ist einen Menschlichen Gegner im Logik-Spiel Go zu schlagen. Dies gelang ihr, weil sie sehr viele Beispiele zu falschen bzw. richtigen Spielzügen erhalten hat und so mit der Zeit Rückschlüsse auf erfolgreiches Verhalten ziehen konnte.Ein anderes Beispiel für antrainiertes Wissen ist die Bilderkennung. So ist KI in der Lage wesentlich zuverlässiger zwischen dem Bild von einem Welpen und einem Muffin zu unterscheiden als ein Mensch. Das war aber nicht von Anfang an so, sondern ist das Ergebnis sehr sehr vieler Lernschritte bei denen dem Algorithmus immer wieder Bilder von Welpen und Muffins „gezeigt“ wurden. Wenn der Algorithmus richtig getippt hat um was es sich handelt, wurde ihm das mitgeteilt. Wenn er falsch lag ebenso. Mit der Zeit wurde so die KI immer zuverlässiger und schlägt heute jeden Menschen.
Go Spiel mit Samurai SchwertUnd was passiert beim Deep Learning? Vereinfacht gesagt, lernt hier der Computer vollkommen eigenständig. Am Beispiel des GO Computers kann man auch das sehr gut erkennen. Denn die Entwickler des ersten Algorithmus haben diesen weiter entwickelt und Deep Learning fähig gemacht. Der neuen Version haben sie dann nur noch die Regeln des Spiels mitgegeben und ihn dann zum spielen geschickt. Zunächst trat diese KI gegen ihren Vorgänger an und gewann mit der Zeit immer mehr Partien bis sie für den großen Bruder unschlagbar wurde. Im nächsten Schritt durfte dieser Computer gegen die besten menschlichen Go-Spieler der Welt antreten und gewann jede einzelne Partie! Ohne das irgendein Mensch jemals „Tipps“ gegeben hätte. Der Computer hat einfach selber erlernt wie eine erfolgreiche Spielstrategie aussieht.

Was bedeutet das für unsere Fragestellung?

Der Algorithmus den Amazon einsetzt ist ein sehr logischer. Er berechnet einfach die Wahrscheinlichkeit mit der sich ein Kunde für ein bestimmtes anderes Produkt interessieren könnte. Ist diese Wahrscheinlichkeit hoch, wird das Produkt angeboten. Dieses Verhalten lernt der Algorithmus vollkommen alleine. Er hat nur anfänglich ein kleines Regelwerk genannt bekommen.
Jetzt kommen wir zum Punkt. Denn in diesem Regelwerk fehlt ganz einfach ein „Kapitel“ über die Empfehlung von potentiell gefährlichen Stoffen. Und natürlich das komplette Wissen über die Kombination von Chemikalien zum Bombenbau.Beides ließe sich Verhältnismäßig leicht einbauen. Das Wissen in Form einer Datenbank die sämtliche relevanten Informationen bereit hält. Und die Regeln so wie der Go-Computer der zweiten Generation seine Regeln auch erlernt hat. Auf Basis dieser Informationen würde der Algorithmus keine gefährlichen Empfehlungen mehr aussprechen, wenn ihm die Gefährlichkeit bestimmter Kombinationen bekannt ist.
Das hat also alles nichts damit zu tun, dass hier ein Algorithmus die Entscheidung über gut oder böse übernimmt. In diesem Fall tut er einfach das was er soll. Und solange ihm niemand sagt, dass er keine Empfehlungen zu potentiell gefährlichen Kombinationen von Chemikalien aussprechen soll, macht er auch so weiter.
Eine Weiterentwicklung dieser KI könnte sein, dass diese potentiell gefährliche Kombinationen selber erlernt und für diese Informationen nicht mehr auf einen Datensatz zurückgreifen muss. Dann bräuchte es nur noch die feste Regel, dass solche Empfehlungen niemals ausgesprochen werden dürfen.
Wir sehen also, dass ein Algorithmus einfach das tut was er tun soll. Als Entwickler einer KI hat man also die Pflicht, jedes mögliche Szenario zu durchdenken und in das zu Grunde liegende Regelwerk einzubauen.Schwieriger wird es, wenn das Ziel ist eine KI einzusetzen die sehr frei agiert. Also eigentlich nur noch eine bestimmte Aufgabe gestellt bekommt und dann vollkommen frei lernt, diese Aufgabe zu erfüllen. Denn dann fehlt es ggf. an einem solchen Regelwerk. Und da Computer streng logisch agieren, wird es nur dann eine Entscheidung für oder gegen ein bestimmtes Verhalten geben, wenn diese dem Computer logisch erscheint.
Ich versuche das am Beispiel des Amazon Algorithmus zu verdeutlichen.Dieser basiert heute auf Wahrscheinlichkeitsrechnung und einem Regelwerk. Wenn aber nun die Entwickler eine KI geschaffen hätten, die lediglich das Ziel „Sorge dafür, dass unsere Kunden möglichst oft einen zusätzlichen Kaufimpuls bekommen und erhöhe dadurch den Umsatz je Bestellung um x%“ mit auf den Weg bekommen hätte, dann würde diese KI alles tun, was logisch erscheint um den Umsatz zu erhöhen. Also eben auch Dinge empfehlen die unethisch oder gefährlich sind.

Gehirn mit einer Analogen und einer Digitalen HälfteIst KI also böse?

Nein. Künstliche Intelligenz tut ganz einfach zwei Dinge.

  1. Sie handelt logisch
  2. Sie handelt im Rahmen von Vorgaben die wir ihr mitgeben oder auch nicht

Ich sehe das nicht als besonders kritisch an. Natürlich ist denkbar, dass KI Dinge tut die wir nicht von ihr erwarten. Im Grunde genommen liegt dann der Fehler bei den Entwicklern die nicht alle Szenarien durchdacht haben. Ein Computer wird nie bewusst böses tun, sondern eben immer rein logisch handeln.
Wenn aber diese Logik dazu führt, dass Schaden angerichtet wird, empfinden wir Menschen dies als „böse“. Und genau das ist der Punkt der diskutiert werden muss. Als Gesellschaft sollten wir entscheiden können, welche Art von KI welchen Regeln unterliegt und wie frei KI generell sein darf in dem was sie tut.
Jetzt bleibt nur noch abzuwarten ob der PR Super Gau für Amazon noch eintritt oder nicht. Das Potential dazu ist vorhanden, liegt aber nicht in der eigentlichen Problematik, dass Kaufvorschläge für den Bombenbau gemacht wurden, sondern darin das dieses Thema das Potential hat grundsätzlich über KI zu diskutieren und viele potentielle Horrorszenarien zu eröffnen.

Über Dennis Arntjen

Als Vertriebsspezialist, Social Media Kenner und Experte des digitalen Wandels schreibt Dennis Arntjen jede Woche Beiträge rund um die Digitalisierung des Mittelstands. Gemeinsam mit Eva Ihnenfeldt leitet Dennis Arntjen das Unternehmernetzwerk KMU Digital. Dort ist er verantwortlich für die Mitgliederbetreuung, den Vertrieb sowie verschiedene Themen rund um die Organisation von Veranstaltungen.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.

Theme developed by TouchSize - Premium WordPress Themes and Websites