Gastbeitrag von Dr. phil. Johannes Lierfeld, Köln: Betrachtet man das KI-Kontrollproblem einmal differenzierter, so kann man nicht umhin, den Menschen ins Zentrum dieser Betrachtungen zu stellen. Denn die technologische Seite ist nur eine – und im Zweifel eine „leichter“ lösbare – Facette des Kontrollproblems. Die andere, noch weit beunruhigendere Seite dieses Problems wird durch nichts Geringeres als die menschliche Natur an sich aufgeworfen. Und da hat die Empirie leider bislang gezeigt, dass wir es trotz besseren Wissens nur selten geschafft haben, konsequent über die Niederungen unserer animalischen Natur zu obsiegen.
Genau dies ist jedoch im Zusammenhang der Lösung der KI-Kontrollproblems eine condition sine qua non. Denn Technologie ist zunächst einmal wertneutral;
Wir müssen uns vor Augen halten, dass der Mensch – im Gegensatz zu den gegenwärtigen Formen von künstlicher Intelligenz – kein Spezialist ist. Wenn überhaupt, sind wir Adaptionsspezialisten. Positiv gewendet können wir uns wie keine andere Spezies an wechselnde Lebensbedingungen anpassen. Doch genau darin liegt im Kontext von künstlicher Intelligenz auch eine große Gefahr. Bedenken wir, wie schnell aus technologischen Neuerungen wie dem Smartphone nicht mehr wegzudenkende Alltagsgegenstände geworden sind, wie schnell die ersten beiden Generationen von „digital natives“ entstanden sind und wie abhängig wir somit von relativ simpler Kommunikationstechnologie geworden sind, so muss konstatiert werden: Technik ist längst keine einfache Prothese mehr, die uns lästige Arbeit abnimmt. Wir sind im Gegenteil bereits tief damit verwoben und sozusagen „extern augmentiert“. Will sagen: noch ist die Technologie zwar nicht mit uns im biologischen Sinne zusammengewachsen, aber die mental-psychische und kognitive Verbindung ist so stark, dass wir ohne die aktuellen technischen Standards nicht mehr ohne weiteres zurechtkämen.
Ist der Standard einmal verschoben, gibt es kein Zurück mehr. Und schlimmer noch: selbst wenn es eine weltweite Einigung geben würde, eine KI-Sicherheitsresolution, die vorschreiben würde, künstliche Intelligenz sicherheitshalber nicht zur vollen Entfaltung kommen zu lassen, um sie effektiv kontrollieren zu können – irgendeine Partei würde diesen Status quo nicht akzeptieren. Selbst wenn sich die ganze Welt daran halten würde, könnten wir nicht ausschließen, dass sich ein Kim Jong Un oder ein Donald Trump in ihrer Hybris über diese Resolution hinwegsetzen könnten – und damit den Dämon heraufbeschwören würden.
Wir können eine künftige überlegene Form von Intelligenz nicht kontrollieren, wenn wir nicht zuerst Wege finden, unsere eigene Natur zu kontrollieren. Und damit ist das KI-Kontrollproblem ein im Kern ethisches Problem.
Serie mit Gastbeiträgen von Dr. Johannes Lierfeld in den SteadyNews:
- Nanomedizin/ Nanoethik
- Evolution: Von biologischer zu non-biologischer Intelligenz
- Interview mit Dr. Reginald Grünenberg
- Künstliche Intelligenz(en), Singularität(en) und… Kant?!?
- Menschenrechte versus Maschinenrechte Teil 2
- Menschenrechte versus Maschinenrechte Teil 1
- Kontrollproblem: Was ist technologische Singularität?
- Brauchen wir einen „Digital-Gipfel“?
- Biologische versus biologische Intelligenz
- Interview mit der KI-Expertin Yvonne Hofstetter
- Warum wir nicht einfach „den Stecker ziehen“ können
- Das KI Kontrollproblem. Der Mensch als Fortschrittsjunkie
- Dr. Johannes Lierfeld: Neuralink und das Kontrollproblem
- Whole Brain Emulation – Phantasma oder der Weg zur virtuellen Unsterblichkeit?
- Bostroms Simulationshypothese oder: nur, weil wir die Wirkmechanismen unserer Realität …
Kontaktdaten:
Dr. Johannes Lierfeld
E-Mail: [email protected]
[…] Lesen […]
[…] Warum wir nicht einfach „den Stecker ziehen“ können […]
[…] Warum wir nicht einfach „den Stecker ziehen“ können […]