Der EU AI Act: Rechtlicher Rahmen für den Einsatz von Künstlicher Intelligenz

Der EU AI Act, verabschiedet im Jahr 2024, bildet den weltweit ersten umfassenden Rechtsrahmen zur Regulierung von Systemen künstlicher Intelligenz innerhalb der Europäischen Union. Ziel ist es, ein hohes Maß an Sicherheit, Transparenz und Grundrechtsschutz bei der Entwicklung und Nutzung von KI-Technologien zu gewährleisten. Der Rechtsakt unterscheidet dabei zwischen verschiedenen Risikokategorien, wobei für sogenannte Hochrisiko-KI besonders strenge Anforderungen gelten.

Hochrisiko-Systeme, etwa in den Bereichen Gesundheitswesen, kritische Infrastruktur oder Personalrekrutierung, unterliegen umfassenden Prüf-, Dokumentations- und Überwachungspflichten. Eine zentrale Rolle spielt die Verpflichtung zur menschlichen Aufsicht, um autonome Entscheidungen kontrollierbar zu halten.

Zudem sind klare Kennzeichnungspflichten vorgesehen: Nutzer müssen erkennen können, wann sie mit einem KI-System interagieren. Dies betrifft insbesondere Systeme mit dialogischen oder generativen Funktionen.

Ein weiteres zentrales Element ist die Durchführung einer Grundrechtefolgenabschätzung bei Hochrisiko-KI. Dabei sind potenzielle Auswirkungen auf Privatsphäre, Nichtdiskriminierung und sonstige geschützte Rechtsgüter systematisch zu bewerten.

Schließlich verlangt der AI Act geeignete Maßnahmen zur Sicherstellung der Fachkenntnis aller Personen, die mit der Entwicklung, dem Einsatz oder der Überwachung von KI-Systemen betraut sind. Dies umfasst insbesondere die Pflicht zu regelmäßiger Fortbildung im Hinblick auf rechtliche, ethische und technische Anforderungen.

Zurück
Zurück

Künstliche Intelligenz zwischen Selbstsicherheit und Zweifel

Weiter
Weiter

KI im Rechtskonflikt: Warum Datenschutz und IT-Sicherheit neu gedacht werden müssen