Home / Innovation / Dr. Johannes Lierfeld: Interview mit der Sachbuchautorin und KI-Expertin Yvonne Hofstetter

Dr. Johannes Lierfeld: Interview mit der Sachbuchautorin und KI-Expertin Yvonne Hofstetter 0

Gastbeitrag von Dr. phil. Johannes Lierfeld, Köln – Heute im Interview mit der Sachbuchautorin und KI-Expertin Yvonne Hofstetter.  JL:„Das Ende der Demokratie“ ist ein programmatischer und fatalistischer Titel. Steht es wirklich so schlimm um die Freiheit unserer Politik und die konkrete Bedrohung dieser durch künstliche Intelligenz?

YH: Als Autor hat man tatsächlich wenig Einfluss auf den Titel, mit dem das Buch schlussendlich beworben und verkauft

wird. Die Strategie der Verlage ist dabei getriggert durch unser eigenes Suchverhalten. Möglichst spektakuläre, zugespitzte Titel stechen beim Scannen der Cover ins Auge.

Nun zur eigentlichen Frage: Einer Studie der John-Hopkins-University zurfolge halten lediglich 30 % der „Digital Natives“ an der Demokratie fest. Wir müssen uns vor Augen halten: Disruption findet statt auf allen Ebenen statt – nicht nur wirtschaftlich, sondern ideologisch und politisch, also auch auf allen gesellschaftlichen Ebenen. Diese Verwerfungen sind also fundamental. Insbesondere Extremisten setzen das Design der Netzwerke zu ihrem Vorteil ein. Es handelt sich hier um eine aufgesplitterte Gesellschaft, bestehend aus zwei Gruppen : Nutzern und Manipulatoren.

In Konsequenz verschieben sich die Machtverhältnisse zugunsten von einzelnen Personen aus extremistischen Lagern, die es wie kaum eine andere Partei verstehen, die digitalen Infrastrukturen zu ihrem Vorteil zu instrumentalisieren.

JL: Konkrete Beispiele wie die Cambridge Analytica Debatte im Zusammenhang mit dem Brexit bestätigen Ihren dystopischen Blick auf die Zukunft. Was kann und sollte jetzt reguliert werden, um die völlig neuen Dimensionen der Massenmanipulation einzudämmen?

YH: In der Demokratie ist die schärfste Waffe die Legislative. Die Digitalisierung sieht wie Fortschritt aus, aber kulturell, zivilisatorisch und humanistisch machen wir de facto Rückschritte. Es gibt jedoch Alternativen auch wenn diese nicht opportun erscheinen. In Regimen, die unseren Werten widersprechen, beispielsweise China, reguliert der Staat und greift auf profunde Art und Weise in die Entwicklungen und Nutzungsmöglichkeiten der Digitalisierung ein.

Wir müssen anfangen, die Dinge beim Namen zu nennen. Uber ist ein Transportunternehmen, Air bnb ist ein Hotelbetrieb. Und Facebook ist ein Medienunternehmen. Sollte also auch dem Mediengesetz unterliegen.

Demokratie heißt auch: Alle Meinungen – auch und insbesondere Minderheitsmeinungen – sollten repräsentiert werden können. Diese gesetzlichen Grundlagen umgehen die neuen Geschäftsmodelle sehr geschickt. Gesellschaftliche Übereinkünfte werden damit ausgehebelt und die Wahrheit ausverkauft. Man kann Menschen stark verwirren durch den bewussten Einsatz dieser Ambivalenzen.

JL: „Social Bots“ führen den Turing Test ad absurdum. Brauchen wir neue Testmöglichkeiten, um entscheiden zu können, ob eine Information von einer biologischen oder maschinellen Intelligenz stammt, oder ist dieser Kampf bereits verloren?

YH: Menschen müssen einfach wissen, dass 60 Prozent des Contents im Internet generiert sind. Das Stichwort ist hier „Digital Literacy“. Ich muss mich als Medienkonsument immer fragen: Wie zuverlässig ist die Quelle, von der ich eine bestimmte Information beziehe? Dass diese Rückversicherung durch Recherche ein immer schwieriges Unterfangen wird, darf jedoch nicht außer Acht gelassen werden. Es droht eine tiefgreifende Verwirrung, eine Aufspaltung auf Fake News und offiziellen Darstellungen. Das kritische Denken steht hier vor historischen Herausforderungen.

JL: Wo sehen Sie die künftigen Aufgaben menschlicher Politik?

Wir befinden uns in einer extremen Umbruchphase. Die Digitalisierung, eine menschliche Kulturleistung, zwingt uns, scheinbar eherne Wahrheiten zu hinterfragen. Wir müssen die aktuellen Verhältnisse humanisieren, gewissermaßen auf ein Update des Humanismus rekalibrieren. Dies ist übrigens ein Prozess, der analog im Verlauf der ersten industriellen Revolution stattfand. Während die ersten Auswirkungen inhumane Konsequenzen hatten, reagierte man darauf und der Mensch konnte von dem erlangten Fortschritt profitieren.

Wir müssen uns heute fragen: Menschenwürde, Souveränität, Selbstbestimmtheit, soziale Marktwirtschaft – sind das weiterhin die Ziele, an denen wir politisch festhalten wollen? Wenn ja, was muss dann geregelt werden, damit die Grundfesten unserer humanistischen Gesellschaft aufrechterhalten werden? Bereits 2013 haben Data Scientists, die Barack Obama unterstützten, individualisierte Wahltexte durch Wahlhelfer in die jeweiligen Haushalte bringen lassen. Dies geschah alles noch ohne supplementierende künstliche Intelligenz. Bald werden wir auf diesem Sektor eine neue Qualität der Einflussnahme erleben.

JL: Kann biologische und künstliche Intelligenz eine funktionale Synthese eingehen, oder halten Sie dies für aussichtslos?

YH: Wir bilden das menschliche Gehirn nach. Doch Beteiligte am Human Brain Project gestehen ein: Wir haben viel mehr Fragen als vorher. Was hier im Raum steht, ist nichts geringeres als eine massive Veränderung des Menschenbilds. Dabei ist der Mensch sehr viel mehr als Datensätze, die interpretiert werden können. Was uns ausmacht, ist in Gänze nicht erfassbar und wird es niemals sein. Aber der dogmatische Glaube an den exklusiven heuristischen Wert der Naturwissenschaften macht diese Reduktion des Menschen erst möglich. 90 Prozent der Forschungsgelder gehen an die Naturwissenschaften. Geisteswissenschaften werden hingegen schlecht gemacht. Dabei fehlt diese Perspektive auch und gerade in naturwissenschaftlichen Diskursen, und ohne interdisziplinäre Ansätze kann hier keine Lösung gefunden werden.

Es muss hier politisch schnellstens reagiert werden. Wir müssen den Austausch fördern. Denn uns muss ganz klar sein: Wenn eine Technologie in die Gesellschaft gebracht wird, verändert das diese. Und das zum Teil grundlegender, als wir es uns vorstellen konnten. Smartphones entbergen beispielsweise etwas Neues. Sie legen Seiten an uns offen und entblößen Begehrlichkeiten, die uns vorher unbekannt waren. Die Reduktion des Menschen wird zum Standard – und dieses neue Menschenbild manifestiert sich auch im Recht. Dies muss uns bewusst werden.

JL: Wie können wir uns künftig vor Manipulation schützen, wenn Wahlprogramme individualisiert auf jeden einzelnen Wähler zugeschneidert werden können, wir also zunehmend in einer durch die eigene Biographie vorgebenen Filterblase gefangen sein werden?

YH: Ich halte das für einen Effekt des jeweiligen Designs. Sprich: wir müssen eine KI schaffen, die demokratisiert und pluralistisch ist und eben nicht kategorisiert. Dazu bedarf es viel explorativerer KI. Bislang haben wir auch eine Reduktion an der KI betrieben, und zwar, sie als Problemlöser und Optimierer reduziert. Es gilt nun, die explorativen Potenziale auszuloten.

JL: Was muss jetzt reguliert werden, um einen Singleton durch eine KI zu verhindern?

YH: Was müssen wir schon mit Blick auf die Fähigkeiten der KI heute tun, scheint mir die relevante Frage zu sein. Ich denke da an autonome Waffensysteme und den gesamten Prozess einer immer stärker automatisierten Kriegsführung. Schon mit einer sehr beschränkten KI ausgerüstet – Zielerkennung und autonome Neutralisierung des Ziels -, können autonome Roboter für Menschen lebensgefährlich werden. Ich muss deshalb nicht auf einen Singleton warten, um mich vor KI zu fürchten. „Dumme“ KI ist nämlich nicht weniger gefährlich als „schlaue“ KI.

Wir sind als Coaches denkbar schlechte Vorbilder für KIs, und es hat sich gezeigt, dass intelligente Systeme menschliche Vorurteile übernehmen, weil unsere eigenen Vorurteile bereits in den Rohdaten enthalten sind, mit denen wir KIs trainieren. Nun kommen wir jedoch bereits in eine andere Phase: Künstliche Intelligenz, die Menschen trainiert, wenn sie uns Entscheidungen vorschlägt und wir die Entscheidungen umsetzen, ohne sie zu hinterfragen – etwa bei HR-Anwendungen wie „People Analytics“ oder in Justizanwendungen.

Sinnvoll sind nur KIs, deren Training (und Rohdatenqualität) wir selbst unter voller Kontrolle haben. KIs, bei denen wir selbst aktiv bleiben und nicht passiv werden, sobald wir unsere Entscheidungen an eine KI abgeben. Und wenn es um Regulierungsfragen geht: Der Einsatz von KI auf Humandaten ist grundsätzlich höchst fragwürdig, weil es sofort zum Konflikt mit Grundrechten, mit Freiheitsrechten des Menschen kommt. Keine Maschine sollte Menschen be- und verurteilen dürfen.

Yvonne Hofstetter, Sachbuchautorin, Juristin und KI-Forscherin, befasst sich seit rund 20 Jahren mit den soziologischen, wirtschaftlichen und politischen Auswirkungen von Digitalisierung und ist anerkannte Expertin auf dem Gebiet der künstlichen Intelligenz. Ihr Bestseller „Das Ende der Demokratie“ erregte vielfaches Aufsehen. Yvonne Hofstetter wurde für ihre Arbeit mit dem Theodor-Heuss-Preis ausgezeichnet.

Yvonne Hofstetter im März 2018 bei zukunftserde.net – beim Klick aufs Bild geht es direkt zu YouTube

 

Über Eva Ihnenfeldt

Die SteadyNews jetzt per WhatsApp abonnieren unter 01784084835 - Danke schön! Eva Ihnenfeldt ist seit vielen Jahren leidenschaftlich selbstständig - und für alle da, die sich unternehmerisch betätigen, die ihr berufliches Leben selbstbestimmt gestalten - und die gewinnorientiert kommunizieren wollen. Als Expertin für Social Media Marketing berät und begleitet Eva Ihnenfeldt Unternehmen und Organisationen bei der Entwicklung von Social Media Strategien - und übernimmt als Dozentin Lehraufträge für Hochschulen, Kammern und andere Bildungsträger. Eva Ihnenfeldt - E-Mail: e.ihnenfeldt@gmail.com

One thought on “Dr. Johannes Lierfeld: Interview mit der Sachbuchautorin und KI-Expertin Yvonne Hofstetter

  1. Pingback: Dr. Johannes Lierfeld: Biologische vs. maschinelle Intelligenz

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.

Theme developed by TouchSize - Premium WordPress Themes and Websites