Der Artikel 4 des EU AI Acts legt fest, dass Unternehmen, die Künstliche Intelligenz einsetzen, ihre Mitarbeiter, Freiberufler und andere Personen, die mit den eingesetzten Systemenn arbeiten, seit Februar 2025 schulen müssen. KI-Grundlagen-Schulungen inklusive nachweisbarer Zertifikate können auch für Jobsuchende und Selbstständige/ Freiberufler wertvoll sein, um ihre Wettbewerbs-Chancen zu verbessern. Allerdings sind die Ansprüche an geschulte Mitarbeiter sehr individuell – je nach Unternehmen – und werden in verschiedene Risikoklassifizierungen aufgeteilt. Hier eine Zusammenfassung vom BDA (Die Arbeitgeber) von Juni 2025:

KI im Sinne der KI-VO (aus Laiensicht zusammengefasst)
Laienhaft ausgedrückt ist ein KI-System ein maschinengestütztes System, das autonom und anpassungsfähig eigene Schritte unternimmt. Heißt: Das System kann aus eingegebenen Daten Ableitungen treffen. Es verfügt über Selbstlernfähigkeit. Auch dann, wenn die Verwendung der eingegebenen Daten nicht für weitere KI-Trainings verwendet wird, zählt es – wie etwa der Microsoft Copilot – zu diesen KI-Systemen.
Risikoklassifizierungen
Je höher die Risiken sind, die durch den Einsatz von KI-Systemen für Gesundheit, Sicherheit und Grundrechte entstehen, desto strenger ist die Regulierung.
- Verboten sind KI-Systeme, die manipulieren, täuschen oder Merkmale von Personen kalkuliert ausnutzen.
- Social Scoring und Systeme zur biometrischen Identifitierung sind verboten
- KI-Systeme, die zur Emotionserkennung am Arbeitsplatz oder in Bildungseinrichtungen eingesetzt werden können
Ausgenommen von diesem Verbot sind KI-Systeme mit medizinischer oder sicherheitstechnischer Aufgabe, z.B. in Therapien oder für sicherheitsrelevante Aufgaben. Emotionen sind laut dieser Definition: Glück, Traurigkeit, Ärger, Überraschung, Ekel, Verlegenheit, Aufregung, Scham, Verachtung, Zufriedenheit und Belustigung. Schmerzen oder Müdigkeit gehören nicht zu den Emotionen nach Art. 5 Abs. 1 f) KI-VO. Sie dürfen z.B. überwacht werden, um Unfälle zu vermeiden.
Hochrisiko-KI-Systeme
Man unterscheidet zwischen Unternehmen, die KI-Systeme entwickeln und auf dem Markt anbieten und Unternehmen, die Hochrisiko-KI-Systeme im Betrieb einsetzen. Diese KI-Systeme dürfen zwar verwendet werden, jedoch nur, wenn sie kein erhebliches Risiko für Gesundheit, Sicherheit oder Grundrechte darstellen – oder wenn das Ergebnis die Entscheidungsfindung nicht wesentlich beeinflusst.
Grundsätzlich geht es dabei um folgende Aufgaben:
- zum Einen um KI-Systeme, die im Rahmen von Beschäftigung und Personalmanagement eingesetzt werden (Entscheidungen über Bewerberauswahl, Beförderungen, Kündigungen etc.)
- zum Anderen um Systeme, die im Rahmen der Überwachung und Bewertung der Mitarbeiter eingesetzt werden.
- Außerdem geht es um KI-Systeme, die bildungsbezogen verwendet werden (Zugang und Zulassung zu Bildungseinrichtugen; Bewerbtungen von Lernergebnissen, Überwachung und Ermittlung von verbotenem Verhalten…).
Diese Systeme gelten nach Art. 6 Abs. 3 KI-VO nur dann als erlaubt, wenn sie kein erhebliches Risiko für Gesundheit, Sicherheit oder Grundrechte darstellen – oder wenn das Ergebnis die Entscheidungsfindung nicht wesentlich beeinflusst.
KI-Systeme mit geringem Risiko
Nach Art. 50 KI-VO sind KI-Systeme mit geringem Risiko sowohl Large Language Models (LLM) als auch KI-Content-Creator für Bild-, Video- und Audioinhalte. Hier müssen die Menschen wissen, dass sie mit einer KI interagieren bzw. KI-generierte Inhalte nutzen. Deepfakes müssen gekennzeichnet werden. Mitarbeiter sollen in der Lage sein, über die weitere Nutzung zu entscheiden – oder zumindest die Informationen einordnen können. Beschäftigte, die KI-erstellten Content erstellen, müssen die rechtlichen Vorgaben kennen und einhalten.
Nicht-regulierte KI-Systeme
Die allermeisten KI-Systeme, die in Verwendung sind, zählen zu den nicht-regulierten KI-Systemen (wie z.B. Spamfilter).
Regelungen für Arbeitgeber
Grundsätzlich müssen Arbeitgeber dafür Sorge tragen, dass die Beschäftigten über die notwednigen KI-Kompetenzen verfügen. Arbeitgeber müssen außerdem Sorge dafür tragen, dass die allgemeinen Transparenzpflichten eingehalten werden nach Art. 50 KI-VO. Mitarbeiter, Kunden und andere Stakeholder des Unternehmens müssen erkennen können, wenn sie es mit Inhalten bzw. Produkten Künstlicher Intelligenz zu tun haben
Beim Einsatz von Hochrisiko-KI-Systemen müssen Arbeitgeber, die Betreiber sind, eine menschliche Aufsicht der KI-Systeme gewährleisten. Arbeitgeber, die Anbieter sind, müssen überprüfen und feststellen lassen, ob ihre entwickelten KI-Systeme zu den Hochrisiko-KI-Systemen gehören – und welche Konsequenzen sich daraus ergeben.
Art. 4 KI-VO: Mitarbeiter-Kompetenzen
Arbeitgeber müssen Maßnahmen ergreifen, um sicherzustellen, dass alle Beschäftigten „nach besten Kräften“ über die notwendigen Kompetenzen für die Nutzung von KI-Anwendungen verfügen. Es geht um die Fähigkeiten, „KI-Systeme sachkundig einzusetzen sowie sich der Chancen und Risiken von KI und möglicher Schäden, die sie verursachen kann, bewusst zu sein.“ Mögliche Maßnahmen können sein:
- Schulungen
- KI-Guidelines
- praxisorientiertes Lernen in Teams
- Weiterbildungs- und Zertifizierungsprogramme
- Benennung von Anlaufstellen
Beschäftigte und Bewerber können je nach Einzelfall im Rahmen der bereits vorhandenen Kenntnisse, Erfahrungen und Qualifikationen individuell eingestuft werden.
Das Unterlassen von Maßnahmen stellt eine Sorgfaltspflichtverletzung dar, die bei Eintritt eines Schadens eine Schadenersatzpflicht auslöst.
Sanktionen
Derzeit drohen noch keine Sanktionen bei Verstößen gegen die Anforderungen der KI-VO, da die Mitgliedsstaaten zunächst zuständige Behörden festsetzen müssen, die das Verfahren regeln und anpassen. Bestehende Pflichten sind jedoch schon heute die Sorgfaltspflichten, die Schadenersatzansprüche auslösen könnten, wenn sie nicht eingehalten wurden.
Umsetzungsfristen
- 2. Februar 2025: Die Schulungspflichten sind in Kraft getreten
- 2. August 2025: Weitere Teile der Verordnung sowie Anbieterpflichten neuer GPAI-Modelle (Modelle mit großer allgemeiner Verwendbarkeit) sind in Kraft getreten.
- 2. August 2026: Vollständige Anwendung der Verordnung
- 2. August 2027: Pflichten für Hochrisiko-Systeme müssen umgesetzt werden
Quelle vom 25. Juni 2025: BDA – Bundesvereinigung der Deutschen Arbeitgeberverbände



