Gastbeitrag von Dr. phil. Johannes Lierfeld, Köln: Die Menschheit steht vor epochalen Herausforderungen: fortschreitende technologische Innovationen, die das Zeitalter der Digitalität prägen, führen uns immer wieder an die Grenzen unserer philosophischen Terminologie und bergen gleichzeitig schier unendliche Chancen, aber auch schwer absehbare Gefahren.
Während die Debatten um die tatsächlichen Potenziale von KI immer noch kontrovers und unvereinbar geführt werden und die gegnerischen Lager ihre Positionen gegenseitig ausschließen, erkennen visionäre Denker wie Nick Bostrom an, dass die Entwicklung dem Menschen ebenbürtiger non-biologischer Intelligenz (Artificial General Intelligence = AGI) zugleich die größten Chancen, aber auch die düstersten Gefahren für unsere Zukunft als Spezies birgt. Besonders bedeutsam ist in diesem Kontext die technologische Singularität – der Moment, in dem sich die Menschheit einer überlegenen, non-biologischen Intelligenz gegenübersieht, als deren Schöpfer sie sich fortan betrachten muss. Die absolut notwendige Forderung nach Beherrschung dieser maschinellen Superintelligenz wird im Kontroll-Problem der künstlichen Intelligenz formuliert. Und dieses Problem erscheint unlösbar ohne eine profunde Reformulierung ethischer Prämissen.
Unter dem Begriff der technologischen Singularität werden verschiedene transhumanistische Konzepte kompiliert. Gemeinsam ist diesem Konglomerat die Vorstellung einer opaken Zukunft der Menschheit ab dem Punkt, an dem Maschinen intelligent genug sind, sich selbständig weiterzuentwickeln.
Da deep learning mit genau dieser rekursiven Selbstoptimierung arbeitet, könnte man argumentieren, die Singularität wäre bereits da. Obwohl es keine allgemeingültige Definition gibt, wird unter der Singularität jedoch auch ein Zustand verstanden, in dem die Maschinenintelligenz unsere biologische Intelligenz signifikant überschreitet. Das Konzept der Singularität setzt immanent und unausgesprochen einen Kontrollverlust über die Maschinenintelligenz voraus.
Der Mathematiker und Autor Vernor Vinge prägte den Begriff Singularität im Jahr 1993 in seinem Essay „The Technological Singularity“. Popularisiert wurde der Begriff später vor allem von Ray Kurzweil, der als Vater der Singularitätsbewegung angesehen werden kann. Bereits 1794 nahm der Mathematiker Nicolas de Concorcet das Konzept in Grundzügen vorweg:
„Nature has set no term to the perfection of human faculties; that the perfectibility of man is truly indefinite; and that the progress of this perfectibility from now onwards independent on any power that might wish to halt it, has no other limit than the duration of the globe upon which nature has cast us. This progress will doubtless vary in speed, but it will never be reversed as long as the earth occupies its present place in the system of the universe, and as long as general laws of this system produce neither a general cataclysm nor such changes will deprive the human race from its present faculties and its present resources.“
Eng verwoben mit der technologischen Singularität sind sowohl das Konzept der Intelligenzexplosion, bei der sich die Selbstoptimierung der Maschinenintelligenz nicht mehr in dem von Moore´s Gesetz abgesteckten Rahmen bewegt, sondern rasant beschleunigt und zu unabsehbaren Konsequenzen führt, sowie die Idee eines daraus resultierenden Singletons, einer KI-Alleinherrschaft. Der Relevanzgrad des Singularitätskonzepts ist hochgradig umstritten: während konservative Stimmen wie Noam Chomsky hierin lediglich Science Fiction sehen, befürchten andere die Singularität bereits in wenigen Jahren. Somit handelt es sich um eine weiche Deadline.
Es ist wohl die größte zeitgenössische Herausforderung an das kollektive kritische Denken, die Chancen durch AGI mit den ihr inhärenten, potenziell existenziellen Risiken abzuwägen, die Grundbedingungen des Kontrollproblems auszuloten und Ansätze für die notwendig erscheinenden cyber-ethischen Reformationen zu entwickeln. Dabei gilt es zu bedenken, dass die Zeit dafür JETZT ist, da wir nicht wissen, wann und ob es zur technologischen Singularität kommt – und wenn ja, zu wievielen…
Serie mit Gastbeiträgen von Dr. Johannes Lierfeld in den SteadyNews:
- Nanomedizin/ Nanoethik
- Evolution: Von biologischer zu non-biologischer Intelligenz
- Interview mit Dr. Reginald Grünenberg
- Künstliche Intelligenz(en), Singularität(en) und… Kant?!?
- Menschenrechte versus Maschinenrechte Teil 2
- Menschenrechte versus Maschinenrechte Teil 1
- Kontrollproblem: Was ist technologische Singularität?
- Brauchen wir einen „Digital-Gipfel“?
- Biologische versus biologische Intelligenz
- Interview mit der KI-Expertin Yvonne Hofstetter
- Warum wir nicht einfach „den Stecker ziehen“ können
- Das KI Kontrollproblem. Der Mensch als Fortschrittsjunkie
- Dr. Johannes Lierfeld: Neuralink und das Kontrollproblem
- Whole Brain Emulation – Phantasma oder der Weg zur virtuellen Unsterblichkeit?
- Bostroms Simulationshypothese oder: nur, weil wir die Wirkmechanismen unserer Realität …
Kontaktdaten:
Dr. Johannes Lierfeld
E-Mail: [email protected]
Dr. Johannes Lierfeld bei LinkedIn
[…] Lesen […]
[…] Kontrollproblem: Was ist technologische Singularität? […]