Home / Innovation / Dr. Johannes Lierfeld: Kann man bei KI Kontrollproblemen „den Stecker ziehen“?

Dr. Johannes Lierfeld: Kann man bei KI Kontrollproblemen „den Stecker ziehen“? 0

Gastbeitrag von Dr. phil. Johannes Lierfeld, Köln: Das KI-Kontrollproblem: Das „Busy-Child“-Szenario oder: Warum wir bei echter künstlicher Intelligenz nicht einfach den Stecker ziehen können. Es war eine ganze Zeit lang wie ein „Running Gag“ – bei allen möglichen Gelegenheiten, wenn ich über das Kontrollproblem von künstlicher Intelligenz sprach, kam als erstes die bewusst oder unbewusst naiv-trotzig gestellte Frage: „Aber kann man dann nicht einfach den Stecker ziehen?“

„Dann“, das meinte freilich den unbestimmten – und vielleicht nachgerade unbestimmbaren – Zeitpunkt, an dem eine künstliche Intelligenz drohte, unserer Kontrolle zu entgleiten. So einfach wird es uns eine echte KI jedoch nicht machen. Es ist hochgradig spekulativ, antizipieren zu wollen, was die erste starke KI tun und lassen wird. Eines erscheint jedoch sonnenklar: sie wird es uns alles andere als leicht machen, sie an ihrer freien Entfaltung zu hindern, und das liegt beileibe nicht nur an dem überaus prekären Umstand, dass wir es dann historisch erstmalig mit einer überlegenen Intelligenzform zu tun haben werden.

Dass ein einfaches Abschalten einer hochentwickelten, selbstlernenden und sich selbst optimierenden KI keine Option sein wird, liegt auch nicht primär an der atemberaubenden Taktung, mit der in der Phase der Intelligenzexplosion ein Systemupdate auf das nächste folgen wird.

Das „Busy-Child“-Szenario, beschrieben in James Barrats Sachbuchklassiker „Our Final Invention“, geht von einer selbstlernenden KI aus, die mit dem Internet verbunden wird. Dort lernt diese KI alles, was der Mensch weiß, erfunden und definiert hat. Mit diesem Wissen hat die KI allgemeine menschliche Intelligenz erreicht; sie weiß und versteht alles, was der klügste Mensch der Welt begriffen hat. Dieser Zustand der Parität zwischen künstlicher und biologischer Intelligenz wird als AGI, stehend für „artificial general intelligence“, bezeichnet.

ASI, dementsprechend „artificial superintelligence“, beschreibt hingegen den Zustand der Superintelligenz. Der Sprung von AGI zu ASI hat im Gegensatz zum Erreichen von allgemeiner künstlicher Intelligenz eine klare Deadline: Moore´s Gesetz der sich beschleunigenden Resultate folgend, wäre der Zustand der Superintelligenz spätestens nach 18 Monaten, mit dem nächsten doppelt so leistungsfähigen Update, erreicht.

Die hypothetische Phase der Intelligenzexplosion würde jedoch das Mooresche Gesetz kurzschließen, da hier durch rekursives Lernen und fortschreitende Selbstoptimierung ein exponenzieller Effekt losgetreten werden würde.

Doppelt so leistungsfähige Nachfolgeversionen wären in dieser Phase also nicht mehr nach 18 Monaten, sondern vielleicht nach 18 Wochen, später nach 18 Tagen und sehr rasch dann im Minuten- und Sekundentakt bereit. Es ist einsichtig, dass sich in einer solchen verselbständigten Entropie durch simples Steckerziehen kein Unheil abwenden lassen wird.

Doch auch ohne Intelligenzexplosion hätten wir heute schon Probleme, ohne weitreichendste Konsequenzen „den Stecker zu ziehen“ und der Digitalisierung zu entfliehen. Die Gewinne der Wall Street wären ohne die intelligenten Algorithmen des High-Frequency-Tradings unvorstellbar, und auch das Internet of Things wächst uns, obwohl noch keine KI, als Konglomerat von Abhängigkeiten bereits jetzt über den Kopf. Maschinen werden künftig Maschinen bezahlen und müssen ergo besitzfähig werden, Konten erhalten. Es ist eine Frage der Zeit, bis die erste selbstlernende KI erkennt, wie abhängig der Mensch von ihrer Leistungsfähigkeit ist – und dementsprechend ihren „Anteil“ einklagt. Geld, soviel muss auch im Zeitalter von Blockchain und Kryptowährungen klar sein, ist vor allem eine Ressource. Und Ressourcen sind die Währung, mit der auf dem Weg zum finalen Systemziel „gezahlt“ wird.

All diese Entwicklungen können wir nicht aufhalten – schon gar nicht, in dem wir den Stecker ziehen.
Nächste Woche folgt der 2. Teil zur Thematik „Kann man bei KI-Problemen den Stecker ziehen?“

Weitere Gastbeiträge von Dr. Johannes Lierfeld in den SteadyNews:

Kontaktdaten:
Dr. Johannes Lierfeld
E-Mail: jlierfeld@gmx.de

Dr. Johannes Lierfeld bei LinkedIn

 

 

Über Eva Ihnenfeldt

Die SteadyNews jetzt per WhatsApp abonnieren unter 01784084835 - Danke schön! Eva Ihnenfeldt ist seit vielen Jahren leidenschaftlich selbstständig - und für alle da, die sich unternehmerisch betätigen, die ihr berufliches Leben selbstbestimmt gestalten - und die gewinnorientiert kommunizieren wollen. Als Expertin für Social Media Marketing berät und begleitet Eva Ihnenfeldt Unternehmen und Organisationen bei der Entwicklung von Social Media Strategien - und übernimmt als Dozentin Lehraufträge für Hochschulen, Kammern und andere Bildungsträger. Eva Ihnenfeldt - E-Mail: e.ihnenfeldt@gmail.com

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.

Theme developed by TouchSize - Premium WordPress Themes and Websites