Algorithmen und KI-Systeme greifen immer weiter in das Leben der EU-Bürger ein: Die Kreditwürdigkeit wird durch Software ermittelt, Stellen-Bewerbungen werden von KI-Systemen gefiltert, das Fahrverhalten von Autofahrern wird ausgewertet, das Konsumentenverhalten entscheidet über die Auswahl bei Suchanfragen…, nun will die EU ein Gesetz auf den Weg bringen, das Betroffenen die Möglichkeit gibt, Schadensersatz zu verlangen, wenn sie durch ein KI-System geschädigt bzw. diskriminiert worden sind. Das „Artificial Intelligence Acts“ (AI Act) könnte frühestens Anfang nächsten Jahres in Kraft treten.
Black Box‘-KI-Systeme
Das Problem ist, dass Unternehmen, die Algorithmen und KI-Systeme entwickeln, anwenden, vertreiben und nutzen, nicht bereit sind, ihre Geschäftsgeheimnisse offenzulegen. Ist es möglich, zum Beispiel Meta (Facebook) zu zwingen, die Funktionsweise der Algorithmen offen zu lesen, weil ein Facebook-Nutzer begründet vermutete, dass er aufgrund seiner ethnischen Herkunft bestimmte Jobangebote nicht gezeigt bekommt? Oder dass eine Bewerberin einen Arbeitgeber verklagen kann, weil sie davon ausgeht, dass eine KI ihre Bewerbung aufgrund des Geschlechts aussortiert hat?
Die EU will Anbieter zwingen, bei Schäden ihre Daten und Protokolle offenzulegen. Dabei sollen Geschäftsgeheimnisse jedoch geschützt bleiben. Wichtig ist, dass eine sogenannte Kausalitätsvermutung den Betroffenen davon entlastet, zunächst begründete Beweise vorlegen zu müssen, wenn er eine Diskriminierung bzw. eine ungerechtfertigte Entscheidung durch ein KI-System vermutet, die ihm Schaden zugefügt hat. Es geht also um Haftungsrecht und Verbraucherschutz – und darum, dass das Vertrauen der EU-Bürger in Künstliche Intelligenz gestärkt werden soll.
Quelle Der Standard vom 2. Oktober 2022: EU will gegen digitale Diskriminierung vorgehen