Das Kontrollproblem von künstlicher Intelligenz: Was ist die technologische Singularität – und wenn ja, wieviele?!?

Gastbeitrag von Dr. phil. Johannes Lierfeld, Köln: Die Menschheit steht vor epochalen Herausforderungen: fortschreitende technologische Innovationen, die das Zeitalter der Digitalität prägen, führen uns immer wieder an die Grenzen unserer philosophischen Terminologie und bergen gleichzeitig schier unendliche Chancen, aber auch schwer absehbare Gefahren.

So fordert die bereits begonnene bio-technologische Evolution, bei der nicht länger das Prinzip der Genetik, sondern das Gesetz der sich beschleunigenden Resultate (Law of accelerating results = LOAR) den limitierenden Rahmen vorgibt, ethische Reformulierungen des Menschenbildes heraus. Zugleich trägt die Menschheit eine besondere Bürde: Da sich der Mensch nun erstmals in der einzigartigen Situation befindet, als Designer einen derartigen Evolutionssprung zu gestalten, fächern sich hier weite Horizonte der Verantwortlichkeit auf. Insbesondere das Feld der künstlichen Intelligenz erscheint als potenziell gefährlich.

Während die Debatten um die tatsächlichen Potenziale von KI immer noch kontrovers und unvereinbar geführt werden und die gegnerischen Lager ihre Positionen gegenseitig ausschließen, erkennen visionäre Denker wie Nick Bostrom an, dass die Entwicklung dem Menschen ebenbürtiger non-biologischer Intelligenz (Artificial General Intelligence = AGI) zugleich die größten Chancen, aber auch die düstersten Gefahren für unsere Zukunft als Spezies birgt. Besonders bedeutsam ist in diesem Kontext die technologische Singularität – der Moment, in dem sich die Menschheit einer überlegenen, non-biologischen Intelligenz gegenübersieht, als deren Schöpfer sie sich fortan betrachten muss. Die absolut notwendige Forderung nach Beherrschung dieser maschinellen Superintelligenz wird im Kontroll-Problem der künstlichen Intelligenz formuliert. Und dieses Problem erscheint unlösbar ohne eine profunde Reformulierung ethischer Prämissen.

Unter dem Begriff der technologischen Singularität werden verschiedene transhumanistische Konzepte kompiliert. Gemeinsam ist diesem Konglomerat die Vorstellung einer opaken Zukunft der Menschheit ab dem Punkt, an dem Maschinen intelligent genug sind, sich selbständig weiterzuentwickeln.

Da deep learning mit genau dieser rekursiven Selbstoptimierung arbeitet, könnte man argumentieren, die Singularität wäre bereits da. Obwohl es keine allgemeingültige Definition gibt, wird unter der Singularität jedoch auch ein Zustand verstanden, in dem die Maschinenintelligenz unsere biologische Intelligenz signifikant überschreitet. Das Konzept der Singularität setzt immanent und unausgesprochen einen Kontrollverlust über die Maschinenintelligenz voraus.

Der Mathematiker und Autor Vernor Vinge prägte den Begriff Singularität im Jahr 1993 in seinem Essay „The Technological Singularity“. Popularisiert wurde der Begriff später vor allem von Ray Kurzweil, der als Vater der Singularitätsbewegung angesehen werden kann. Bereits 1794 nahm der Mathematiker Nicolas de Concorcet das Konzept in Grundzügen vorweg:

„Nature has set no term to the perfection of human faculties; that the perfectibility of man is truly indefinite; and that the progress of this perfectibility from now onwards independent on any power that might wish to halt it, has no other limit than the duration of the globe upon which nature has cast us. This progress will doubtless vary in speed, but it will never be reversed as long as the earth occupies its present place in the system of the universe, and as long as general laws of this system produce neither a general cataclysm nor such changes will deprive the human race from its present faculties and its present resources.“

Eng verwoben mit der technologischen Singularität sind sowohl das Konzept der Intelligenzexplosion, bei der sich die Selbstoptimierung der Maschinenintelligenz nicht mehr in dem von Moore´s Gesetz abgesteckten Rahmen bewegt, sondern rasant beschleunigt und zu unabsehbaren Konsequenzen führt, sowie die Idee eines daraus resultierenden Singletons, einer KI-Alleinherrschaft. Der Relevanzgrad des Singularitätskonzepts ist hochgradig umstritten: während konservative Stimmen wie Noam Chomsky hierin lediglich Science Fiction sehen, befürchten andere die Singularität bereits in wenigen Jahren. Somit handelt es sich um eine weiche Deadline.

Es ist wohl die größte zeitgenössische Herausforderung an das kollektive kritische Denken, die Chancen durch AGI mit den ihr inhärenten, potenziell existenziellen Risiken abzuwägen, die Grundbedingungen des Kontrollproblems auszuloten und Ansätze für die notwendig erscheinenden cyber-ethischen Reformationen zu entwickeln. Dabei gilt es zu bedenken, dass die Zeit dafür JETZT ist, da wir nicht wissen, wann und ob es zur technologischen Singularität kommt – und wenn ja, zu wievielen…

Serie mit  Gastbeiträgen von Dr. Johannes Lierfeld in den SteadyNews:

Kontaktdaten:

Dr. Johannes Lierfeld
E-Mail: [email protected]

Dr. Johannes Lierfeld bei LinkedIn

 

Seit fast zwanzig Jahren auf der "freien Wildbahn" hat Eva Ihnenfeldt sowohl 2004 eine eingetragene Genossenschaft für Existenzgründer gegründet als auch 2011 eine Akademie für die Ausbildung von Social Media Unternehmenden. Lange Zeit war sie Dozentin und Trainerin für Marketing, Kommunikation und Social Media. Heute arbeitet sie als Coach für Menschen im beruflichen Wandel. Ihre Stärke ist es, IST-Situationen zu akzeptieren, Visionen zu erkennen und gemeinsam mit ihren Klienten Strategien zu entwickeln, die sich auch in der Praxis bewähren. Mobil: 0176 80528749 - E-Mail: [email protected]

steadynews.de

2 thoughts on “Das Kontrollproblem von künstlicher Intelligenz: Was ist die technologische Singularität – und wenn ja, wieviele?!?

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert