Hochrisiko-KI, oder doch nicht? Wann die Ausnahmen des Artikel 6 Absatz 3 KI-VO greifen und was Unternehmen tun können
Die Regulierung von Künstlicher Intelligenz (KI) durch die EU-KI-Verordnung stellt eine der umfassendsten Bemühungen dar, den Einsatz dieser bahnbrechenden Technologie sicher und ethisch vertretbar zu gestalten. Besonders die Einstufung von Hochrisiko-KI-Systemen gemäß Artikel 6 Abs. 2 i.V.m. Anhang III hat das Ziel, potenzielle Gefahren für Gesundheit, Sicherheit und Grundrechte natürlicher Personen zu minimieren. Doch nicht jede Anwendung in sensiblen Bereichen birgt automatisch ein erhebliches Risiko. Hier setzt Artikel 6 Absatz 3 der Verordnung an, der Ausnahmen von der Hochrisiko-Kategorisierung ermöglicht, sofern bestimmte Voraussetzungen erfüllt sind.
Artikel 6 Absatz 3 KI-VO
Artikel 6 Absatz 3 KI-VO lautet wie folgt:
Abweichend von Absatz 2 gilt ein in Anhang III genanntes KI-System nicht als risikoreich, wenn es kein erhebliches Risiko für die Gesundheit, die Sicherheit oder die Grundrechte natürlicher Personen birgt, auch nicht dadurch, dass es das Ergebnis der Entscheidungsfindung wesentlich beeinflusst. (Unterabs. 1)
Unterabsatz 1 findet Anwendung, wenn eine der folgenden Bedingungen erfüllt ist:
(a) Das KI-System ist für die Ausführung einer engen verfahrenstechnischen Aufgabe bestimmt;
(b) das KI-System ist dazu bestimmt, das Ergebnis einer zuvor ausgeführten menschlichen Tätigkeit zu verbessern;
(c) das KI-System ist dazu bestimmt, Entscheidungsmuster oder Abweichungen von früheren Entscheidungsmustern zu erkennen, und ist nicht dazu bestimmt, die zuvor durchgeführte menschliche Bewertung ohne angemessene menschliche Überprüfung zu ersetzen oder zu beeinflussen; oder
(d) das KI-System ist dazu bestimmt, eine vorbereitende Aufgabe für eine Bewertung durchzuführen, die für die Zwecke der in Anhang III aufgeführten Anwendungsfälle relevant ist. Ungeachtet des Unterabsatzes 1 gilt ein in Anhang III genanntes KI-System immer dann als mit hohem Risiko behaftet, wenn das KI-System ein Profiling natürlicher Personen durchführt.
Hintergrund und Ziel der Ausnahmeregelung
Die Einstufung eines KI-Systems als „Hochrisiko“ bringt erhebliche regulatorische Anforderungen mit sich. Diese umfassen etwa:
- Strikte Anforderungen an Datenqualität und Transparenz,
- Einrichtung eines Risikomanagementsystems,
- Überwachung der Systemleistung während des gesamten Lebenszyklus.
Die Ausnahmeregelung in Art. 6 Abs. 3 KI-VO soll eine differenzierte Betrachtung ermöglichen, indem sie den Kontext und die tatsächliche Nutzung eines KI-Systems berücksichtigt. Ziel ist es, Fälle aus den Hochrisikoregelungen auszuklammern, bei denen trotz des Einsatzes in sensiblen Bereichen kein erhebliches Risiko für Gesundheit, Sicherheit oder Grundrechte natürlicher Personen besteht.
Voraussetzungen für die Anwendung von Art. 6 Abs. 3
Art. 6 Abs. 3 KI-VO ermöglicht eine Ausnahme von der Hochrisiko-Einstufung unter folgenden Bedingungen:
- Kein erhebliches Risiko: Der Einsatz des KI-Systems darf kein erhebliches Risiko für die Gesundheit, Sicherheit oder Grundrechte darstellen. Dies schließt Risiken aus, die durch eine unzuverlässige oder verzerrte Entscheidungsfindung entstehen könnten.
- Unterstützende Funktion: Das KI-System muss unterstützend und nicht entscheidend agieren. Es darf keine „Letztentscheidungskompetenz“ besitzen, sondern nur als Hilfsmittel dienen.
- Dokumentation und Nachweis: Unternehmen oder Betreiber müssen nachweisen können, dass die Ausnahme gerechtfertigt ist. Dies beinhaltet:
- Eine klare Dokumentation der Systemnutzung,
- Eine Risikobewertung, die das Fehlen erheblicher Risiken belegt,
- Bereitstellung dieser Nachweise für zuständige Behörden auf Anfrage.
- Ausnahmeregelung für spezifische Anwendungen: Profiling-Systeme, die Daten natürlicher Personen zur Entscheidungsfindung nutzen, gelten immer als Hochrisiko-KI, auch wenn andere Voraussetzungen erfüllt sind.
Beispiele für die Anwendung von Art. 6 Abs. 3 KI-VO
a) Personalmanagement
Ein Unternehmen nutzt ein KI-System, um Lebensläufe zu kategorisieren und Bewerbungen nach bestimmten Schlagwörtern zu filtern. Die endgültige Auswahl trifft jedoch ein Mensch, und das System ersetzt keine menschlichen Entscheidungen. In diesem Fall könnte Art. 6 Abs. 3 gelten, da das KI-System lediglich unterstützend wirkt und keine erhebliche Gefahr für Grundrechte besteht.
b) Bildungswesen
Ein KI-System wird verwendet, um Prüfungsergebnisse basierend auf objektiven Kriterien wie Rechtschreibung und Syntax zu bewerten. Ein Lehrer überprüft die Ergebnisse jedoch vor der endgültigen Notenvergabe. Da das KI-System nur eine unterstützende Rolle spielt, könnte es unter die Ausnahmeregelung fallen.
c) Kreditwürdigkeitsprüfung
Ein KI-System bewertet die Bonität eines Antragstellers anhand objektiver, transparenter Kriterien. Die finale Entscheidung über die Kreditvergabe obliegt jedoch einem Sachbearbeiter. Sofern das System nachweislich keine diskriminierenden Kriterien anwendet, könnte die Ausnahme greifen.
d) Einsatz in Notfallsystemen
Ein KI-System hilft bei der Klassifizierung eingehender Notrufe, gibt aber keine Handlungsanweisungen. Die endgültige Priorisierung und Zuweisung erfolgt durch einen Dispatcher. In diesem Fall könnte Art. 6 Abs. 3 ebenfalls angewendet werden, da das Risiko durch menschliche Kontrolle minimiert wird.
e) E-Commerce
Ein KI-System empfiehlt Produkte auf Basis von Kundendaten, beeinflusst jedoch nicht direkt vertragliche Entscheidungen oder Preise. Solange keine diskriminierenden Praktiken vorliegen, könnte das System von der Hochrisiko-Einstufung ausgenommen werden.
Praktische Umsetzung und Herausforderungen für Unternehmen
a) Dokumentationspflicht
Unternehmen, die die Ausnahmeregelung geltend machen wollen, stehen vor der Herausforderung, ihre Entscheidungen umfassend zu dokumentieren. Die erforderlichen Unterlagen müssen folgende Punkte abdecken:
- Beschreibung der unterstützenden Rolle des Systems,
- Detaillierte Risikobewertung,
- Nachweise über die Einhaltung der Vorgaben.
b) Prüfung durch Behörden
Die zuständigen Behörden können jederzeit die Unterlagen einsehen und die Ausnahme überprüfen. Dies erfordert eine transparente und lückenlose Dokumentation. Bei unzureichendem Nachweis droht eine Einstufung als Hochrisiko-KI-System.
c) Risiko der Fehleinschätzung
Die Einschätzung, ob ein KI-System erhebliche Risiken birgt, ist nicht immer eindeutig. Unternehmen könnten versehentlich Systeme als nicht hochriskant einstufen, obwohl die Behörden eine andere Bewertung vornehmen. Dies birgt das Risiko von Sanktionen und Nachbesserungskosten.
Fazit und Handlungsempfehlungen
Art. 6 Abs. 3 der KI-Verordnung bietet Unternehmen eine wertvolle Möglichkeit, bestimmte KI-Systeme von den strengen Anforderungen der Hochrisiko-Kategorie auszunehmen. Diese Ausnahmeregelung fördert Innovation und Flexibilität, ohne den Schutz von Grundrechten und Sicherheit zu gefährden.
Empfehlungen für Unternehmen:
- Sorgfältige Prüfung: Unternehmen sollten frühzeitig evaluieren, ob ihre KI-Systeme die Voraussetzungen für eine Ausnahme erfüllen.
- Transparente Dokumentation: Eine lückenlose und verständliche Dokumentation ist der Schlüssel, um die Ausnahmeregelung erfolgreich anzuwenden.
- Regelmäßige Überprüfung: Die Nutzung von KI-Systemen und ihre Risiken sollten regelmäßig überprüft werden, um Änderungen oder Anpassungen rechtzeitig vorzunehmen.
- Schulungen und Kompetenzaufbau: Mitarbeitende, die für die Bewertung und Nutzung von KI-Systemen verantwortlich sind, sollten umfassend geschult werden, um regulatorische Anforderungen zu verstehen und umzusetzen.
Mit der richtigen Vorbereitung und Sorgfalt können Unternehmen von den Ausnahmen profitieren, während sie gleichzeitig die Standards der KI-Verordnung einhalten. Die Balance zwischen Innovation und Sicherheit bleibt der zentrale Leitgedanke der Verordnung.