Gastbeitrag von Dr. phil. Johannes Lierfeld, Köln: Angesichts steigender Autonomie von Robotern und intelligenten Systemen wie selbstfahrenden Automobilen stellt sich immer drängener die Frage nach Maschinen- oder Roboterrechten. Zunächst entspannt sich die Diskussion an der Frage der Verantwortlichkeit von künstlicher Intelligenz: Können intelligente Maschinen, die entscheidungsfähig sind, für eine fatale Fehlentscheidung verantwortlich gemacht werden?
Spätestens, seit im Jahr 2017 mit „Sophia“ dem ersten Roboter Bürgerrechte zugesprochen wurden – präkererweise ausgerechnet in Saudi-Arabien, womit Sophie über mehr Rechte verfügt als die meisten Frauen im Lande – stellt sich die Frage nach dem Sinn bzw. Unsinn von Maschinenrechten. Nach der Verantwortlichkeit wird sich wahrscheinlich, im Gegensatz zu den Menschenrechten, ein individualitätsgeleiteter Diskurs der Maschinenrechte entspinnen. Eben nicht, weil alle Roboter gleich sind, sondern weil sie gegebenenfalls individuelle Erfahrungen (Qualia) und Reflexion entwickeln können, greifen hier Argumente, ihnen im Einzelfall Rechte zuzubilligen. Primitivere Systeme, die dazu nicht in der Lage sind, wären von dem Rechteerwerb kategorisch auszuschließen. Ein Testverfahren für den Erwerb von Maschinenrechten wäre nicht nur denkbar, sondern dringend anzuraten.
Wieder mal zwingen uns die Maschinen, aufgrund aufgeworfener Probleme zum Menschen zurückzukehren und in Abgrenzung zu irgendwann erforderlichen Maschinenrechten zu betrachten, welche Funktion Menschenrechte erfüllen.
Als Menschenrechte werden subjektive Rechte bezeichnet, die jedem Menschen gleichermaßen zustehen. Das Konzept der Menschenrechte geht davon aus, dass alle Menschen allein aufgrund ihres Menschseins mit gleichen Rechten ausgestattet und dass diese egalitär begründeten Rechte universell, unveräußerlich und unteilbar sind.
Doch hierin liegt bereits ein äußerst kritischer Punkt. Denn wir müssen davon ausgehen, dass aus Sicht einer echten KI der Humanismus als effizientes und zukunftsfähiges Konzept höchstwahrscheinlich als gescheitert zu beurteilen ist. Schließlich hat es die Menschheit nicht geschafft, die theoretischen humanistischen Ideale auf globaler Skalierung umzusetzen. Ein fast schon triviales, aber nichts desto trotz eindringliches Beispiel ist die Sklaverei. Auch wenn die Sklaverei Ende des 18. Jahrhunderts in den USA verboten wurde, so wurde die Erde erst 1981 mit dem Sklavereiverbot in Mauretanien komplett und offiziell von Sklaverei befreit. Dennoch leben bis zum heutigen Tag Millionen Menschen unter sklavereiähnlichen Bedingungen. Und künstliche Intelligenz kann man mit gutem Recht als „superior slaves“ bezeichnen, also Sklaven, die ihren Schöpfern und Herren perspektivisch überlegen sind. Allein schon aus diesem Grund erscheint es fast schon geboten, über Maschinenrechte nachzudenken. Denn dann könnten uns unsere überlegenen Sklaven gewogen bleiben. Andererseits könnte eine frühzeitige und unüberlegte Ausstattung mit Rechten katastrophale Folgen zeitigen.
Wir dürfen nicht vergessen: wir sind die „Coaches“, die Anlerner für heutige und kommende künstliche Intelligenzen. Und wir sind nicht nur gewissermaßen erziehungsberechtigt, sondern als Eltern unserer „Mind Children“, wie Hans Moraves unsere intelligenten Schöpfungen bezeichnet, erziehungsverpflichtet. Nur, wenn wir es schaffen, uns von unseren eigenen Vorurteilen und unserem Mangel an gelebter Ethik zu befreien, werden wir unseren „Mind Children“ die Vorbilder sein, derer es bedarf, um die kommenden Technologien zum Wohle der Menschheit zu prägen.
Serie mit Gastbeiträgen von Dr. Johannes Lierfeld in den SteadyNews:
- Nanomedizin/ Nanoethik
- Evolution: Von biologischer zu non-biologischer Intelligenz
- Interview mit Dr. Reginald Grünenberg
- Künstliche Intelligenz(en), Singularität(en) und… Kant?!?
- Menschenrechte versus Maschinenrechte Teil 2
- Menschenrechte versus Maschinenrechte Teil 1
- Kontrollproblem: Was ist technologische Singularität?
- Brauchen wir einen „Digital-Gipfel“?
- Biologische versus biologische Intelligenz
- Interview mit der KI-Expertin Yvonne Hofstetter
- Warum wir nicht einfach „den Stecker ziehen“ können
- Das KI Kontrollproblem. Der Mensch als Fortschrittsjunkie
- Dr. Johannes Lierfeld: Neuralink und das Kontrollproblem
- Whole Brain Emulation – Phantasma oder der Weg zur virtuellen Unsterblichkeit?
- Bostroms Simulationshypothese oder: nur, weil wir die Wirkmechanismen unserer Realität …
Kontaktdaten:
Dr. Johannes Lierfeld
E-Mail: [email protected]
Dr. Johannes Lierfeld bei LinkedIn
[…] Lesen […]
[…] Menschenrechte versus Maschinenrechte Teil 2 […]
[…] Menschenrechte versus Maschinenrechte Teil 2 […]
[…] Menschenrechte versus Maschinenrechte Teil 2 […]
[…] Menschenrechte versus Maschinenrechte Teil 2 […]