Die italienische Datenschutzbehörde GPDP hat entschieden, dass in Unternehmen keine Sammlungen von Nutzerdaten aus „Unterhaltungen“ bei der Nutzung von KI-Sprachassistenten verwendet werden dürfen, da dies gegen die Datenschutzgrundsätze der Zweckbindung und der Datenminimierung verstoßen würde.
DSGVO und ChatGPT der Europäischen Union

Aufgrund der Datenschutzgrundverordnung (DSGVO) ergeben sich folgende datenschutzrechtlichen Herausforderungen:
- Ohne eine spezielle Rechtsgrundlage aus Art. 6 Abs 1 DSGVO darf eine Verarbeitung nur mit Einwilligung der betroffenen Person erfolgen. Dafür ist eine transparente Information über die Datenverarbeitung und deren Auswirkungen erforderlich.
- Da ChatGPT und andere KI-Sprachassistenten keine ausreichenden Informationen über die Datenverarbeitung eingegebener Daten zur Verfügung stellen, ist eine wirksame Einwilligung kaum möglich.
- Unternehmen können aufgrund der intransparenten Datenverarbeitung durch ChatGPT/OpenAI den betroffenen Personen keine Zusicherung geben, dass deren Daten auf Anfrage gelöscht werden können.
- Nur wenn der von OpenAI angebotene Auftragsverarbeitungsvertrag mit dem gewerblichen ChatGPT-Nutzer abgeschlossen wurde, kann das Unternehmen sicherstellen, dass die Daten von Open-AI nicht auch zum Training des KI-Modells genutzt werden
- Solange der Algorithmus hinter dem Chatbot eine Blackbox ist, sollten Unternehmen und private Nutzer die Anwendung nur mit größter Vorsicht verwenden.
Der AI-Act der Europäischen Union bringt Einklang in die Vorschriften der Mitgliedsländer bei der Nutzung von KI-Systemen. Wichtig ist, die Mitarbeitenden im Umgang mit Künstlicher Intelligenz zu schulen und für das Unternehmen die Richtlinien aufgrund der jeweiligen Risikostufe festzulegen.
Bundesregierung – Einheitliche Regeln für Künstliche Intelligenz in der EU



