Wenn Alexa „heimlich“ nachts die Musik laut aufdreht – Können wir KI kontrollieren?

Gestern ging durch die Presse, dass Alexa, der Amazon Sprachassistent, ohne Befehl seines Besitzers ganz allein tätig wurde: Plötzlich sprang nachts in der Wohnung eines Mietshauses die Musik an – in voller Lautstärke – bis die Nachbarn die Polizei alarmierten. Da der Mieter der Wohnung nicht zu Hause war, musste die Polizei sogar die Tür aufbrechen. Was will uns das sagen? Können wir wirklich hämisch lachen, weil wir selbst noch keine Smart Home Installation haben? Oder sind wir alle indirekt betroffen von der Unkontrollierbarkeit der cloudvernetzten Maschinen?

Ich selbst war gestern Gast einer Podiumsdiskussion bei der Materna GmbH in Dortmund, bei der drei

Moderatorin Ute Korinth, Heike Häfele – COO AX Semantics, Sonja Stange – Team Corporate Innovation Materna, Thomas Ross – IBM Global Business Services, bei#DMWonTourRuhr im November 2017

ExpertInnen über die heutigen Kommunikationsfähigkeiten von Künstlicher Intelligenz berichteten. Bestürzt hat mich dabei ein Test, bei dem wir ZuschauerInnen abstimmen sollten, welcher journalistische Text von einem Menschen – und welcher von einer KI erstellt wurde – wir waren absolut nicht in der Lage, dies zu erkennen.

#DMWonTourRuhr hatte eingeladen, und rund 40 meist weibliche Teilnehmer waren gekommen. Ich war schon häufiger auf solchen Veranstaltungen – und habe ja sogar schon eine Serie über Künstliche Intelligenz geschrieben – und doch hat mich der Abend berührt. Es war tatsächlich dieser Text-Test, der nachwirkte. Viermal hat uns Heike Häfele, COO bei AX Semantics, auf die Probe gestellt mit Texten zu Prominenten-News – typischen Klatschkurznachrichten. Emotional, etwas reißerisch, mit persönlicher Note. Wir rieten so gut wir konnten, doch es stand im Ergebnis mehr oder weniger unentschieden.

Roboter oder Mensch? Wir hatten keine Ahnung…

Was bedeutet es, wenn ich nicht in der Lage bin, menschlichen Journalismus von Maschinentexten zu unterscheiden, die sich speziell auf meine Vorlieben und Interessen einstellen? Die mir genau das liefern, was ich lesen will und mich dadurch manipulieren können? Die Rechenkapazitäten sind da, was also soll diese unterschwelligen Werbebotschaften noch verhindern? OK, ich kann gar nichts mehr glauben – aber was hat das für Konsequenzen? Das ich komplett verdumme, weil ich jedem geschrieben Wort und jeder Botschaft misstraue?

Heute früh habe ich dann mal „KI Ethik Podcast“ gegooglet in der Hoffnung, dem Problem auf die Spur zu kommen: „Inwieweit kann mich mit unzähligen persönlichen Informationen gefütterte KI manipulieren?“ war meine Frage. Und was passiert, wenn die internetvernetzten Dinge in meiner Umgebung wie Auto, Uhr, Smartphone, TV, Kaffeemaschine etc. miteinander über die Cloud kommunizieren? Lässt sich der Kontrollverlust überhaupt noch aufhalten? Kann die Datenschutzverordnung ab Mai 2018 da etwas Katastrophales verhindern?

Ich fand einen YouTube Kanal von Dr. Johannes Lierfeld, der erst vor wenigen Monaten startete. Darauf waren zwei Audio-Vorträge zu KI und deren Gefahren, die mich faszinierten. Alles war zunächst etwas unheimlich, da es kein Impressum und keine leicht ersichtlichen Informationen zum Vortragenden gab. Doch das was dieser Mann sagte, war spannend – und bedrohlich. Anders als all die KI-Texte und Vorträge, die ich bisher gesehen und gelesen habe. Hier geht es um mehr als Haftungsstreitigkeiten bei selbstfahrenden Autos. Mehr als um die Frage, ob ein autonomes Auto lieber einen Rentner oder ein Kind überfahren soll, wenn es zu einem Dilemma kommt.

Nachdem ich dann lange recherchiert habe und sah, dass dieser Dr. Johannes Lierfeld eine Habilitation zu diesem Thema geschrieben hat und als Kraftsportler schon häufig im TV war – und er auch als Autor aktiv ist, war ich beruhigt. Kein Verschwörungstheoretiker, kein Spinner.
Dr. Johannes Lierfeld bei LinkedIn

Könnte es sein, dass wir Menschen immer weniger in der Lage sind, konstruktiv und gestaltend über die politische und gesellschaftliche Gestaltung vom Zusammenwachsen zwischen Mensch und Maschine zu diskutieren, weil wir sie sie absolut nicht verstehen? Könnte es sein, dass sich gerade eine „Super-Intelligenz“ entwickelt, die nicht mehr kontrollierbar ist. Und schlimmer: Ist das nicht an den Finanzmärkten schon Realität? Nehmen wir es nicht locker hin, dass Algorithmen die Börsenkurse bestimmen? Und gehen diese Finanzmärkte (ich meine Finanzmärkte!!) nicht nur einen kleinen Schritt anderen existenziellen Bereichen voraus? Energieversorgung, Kriegshandlungen, Diagnosen in der Medizin, juristische Bewertungen… überlassen wir nicht KI’s wie Watson die Schaltstellen der Entscheidungen über unsere Zukunft?

KI handelt nicht nach nationalstaatlicher Ethik – sie ist weltweit vernetzt. Doch jede Kultur, jedes Land hat seine eigenen Grundwerte und ethischen Prinzipien. Wie also wird diese übergeordnete Computerintelligenz Entscheidungen vornehmen, die ähnlich ausgerechnet werden wie auf den Finanzmärkten. In Japan ersetzen Versicherungsunternehmen bei der Schadensabwicklung schon jetzt immer mehr Mitarbeiter durch KI. Wie sollen sich (fehlerhafte, schicksalsgebundene) Menschen gegen Entscheidungen von Maschinen zur Wehr setzen? Auf Mitgefühl und Verständnis können sie ganz sicher nicht setzen. Lierfeld sagt, sogar der erste CEO ist kein Mensch mehr sondern eine KI. Da wird sicher kein Erbarmen herrschen, wenn Mitarbeiter entlassen werden.

Die Frage ist, wo es schwierig wird, aus Irrtümern Konsequenzen zu ziehen und die eingesetzte KI wieder aus dem Verkehr zu ziehen. „In the box“ KI’s sind schließlich unmöglich, sobald sie im Internet arbeiten. Kann man die Finanzmärkte wieder auf „Broker“ zurückdrehen, wenn wir merken, dass die unbarmherzig unparteiischen Algorithmen uns alle in den finanziellen Ruin führen? Was passiert, wenn Energieversorgung von Algorithmen und Blockchains gesteuert wird? Könnte es sein, dass das zur Katastrophe führen muss, wenn niemand Mitleid hat mit Menschen? Wenn wir durch die komplexe Vernetzung des Internet of Things unmöglich „den Stecker ziehen“ können“? Oder wie Johannes Lierfeld trocken sagt: „Wenn zwei Wochen auf der Welt das Licht aus wäre, wären zwei Drittel der Menschheit tot“.

Keine Ahnung, ob da ein Science-Ficton Autor, der sich bei Instagram als Writer / Dr. phil (PhD) / Habilitation candidate in applied media science / Futurist / Transhumanist Strength athlete & Martial artist Coach beschreibt, zu viel Phantasie hat. Doch das exponentielle Wachstum der selbstlernenden Maschinen ist keine Erfindung. Und dass totalitäre Regime in Asien wie China hervorragende Bedingungen bieten, um auch im Geheimen nach Lust und Laune mit Daten und deren Verwendung zu experimentieren, ist auch keine Phantasie.

Ich empfehle sehr, diese zwanzig Minuten anzuhören und sich ein eigenes Urteil zu bilden. Ich glaube, wir müssen uns politisch einmischen. Das können wir den Parteien nicht überlassen. Und ich fürchte, die Komplexität des Themas macht es extrem schwierig, sich Respekt und Glaubwürdigkeit bei den Agierenden zu verschaffen. Und vor Allem bin ich sicher, dass eine internationale ethische Autorität schwer zu installieren ist, wenn wir Menschen so unterschiedliche ethische Regeln verfolgen! Religionen müssten schon einmal komplett verschwinden. Und Prägungen durch Familie und Schicksal ebenfalls. Ein schwer zu knackendes Rätsel. Aber was ist schon leicht…

 

 

Seit fast zwanzig Jahren auf der "freien Wildbahn" hat Eva Ihnenfeldt sowohl 2004 eine eingetragene Genossenschaft für Existenzgründer gegründet als auch 2011 eine Akademie für die Ausbildung von Social Media Unternehmenden. Lange Zeit war sie Dozentin und Trainerin für Marketing, Kommunikation und Social Media. Heute arbeitet sie als Coach für Menschen im beruflichen Wandel. Ihre Stärke ist es, IST-Situationen zu akzeptieren, Visionen zu erkennen und gemeinsam mit ihren Klienten Strategien zu entwickeln, die sich auch in der Praxis bewähren. Mobil: 0176 80528749 - E-Mail: [email protected]

steadynews.de

4 thoughts on “Wenn Alexa „heimlich“ nachts die Musik laut aufdreht – Können wir KI kontrollieren?

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert