Dein klarer Fahrplan durch den EU AI-Act

Cybersicherheit in Europa Dein klarer Fahrplan durch den EU AI-Act

Künstliche Intelligenz ist ein zweischneidiges Schwert. Sie erleichtert Abläufe, liefert personalisierte Empfehlungen und spart Zeit. Gleichzeitig entstehen Risiken, die du nicht ignorieren solltest. In diesem Beitrag zeigen wir dir die wichtigsten Informationen im Zusammenhang mit dem AI-Act.

FAQ

  • Was ist der AI-Act?
    Der AI-Act ist seit dem 1. August 2024 in Kraft und wird Schritt für Schritt umgesetzt. Sein Ziel: ein sicheres und transparentes KI-Umfeld. Dafür teilt er Anwendungen in vier Risikoklassen ein – von minimalem über begrenztes bis hin zu hohem und inakzeptablem Risiko.
  • Welche Systeme fallen nicht unter besondere gesetzliche Vorgaben des AI-Acts?
    Systeme mit minimalem Risiko fallen nicht unter besondere gesetzliche Vorgaben. Bei begrenztem Risiko greift jedoch eine Transparenzpflicht: Nutzer:innen müssen klar erkennen können, dass sie mit einer KI interagieren.
  • Welche Anforderungen gelten für Hochrisiko-Systeme?
    Hochrisiko-Systeme müssen strenge Anforderungen erfüllen. Dazu gehören Risikominderung, menschliche Überwachung und eine umfassende Dokumentation, zum Beispiel in der Medizin. Inakzeptable Risiken wie Social Scoring sind vollständig verboten.
  • Was passiert bei Verstößen gegen den AI-Act?
    Verstöße gegen den AI-Act können mit Bußgeldern von bis zu 35 Millionen Euro geahndet werden.

Was regelt der EU AI-Act?

Seit dem 1. August 2024 ist der AI-Act in Kraft. Die Bestimmungen werden in den kommenden Jahren schrittweise eingeführt. Ziel des Europäischen Parlaments ist es, ein Umfeld zu schaffen, in dem KI sicher, transparent, nachhaltig und diskriminierungsfrei eingesetzt wird. Dafür unterscheidet der AI-Act zwischen minimalem, begrenztem, hohem und inakzeptablem Risiko.

Welche Risikoklassen beinhaltet der AI-Act?

Bevor du ein KI-System entwickelst oder in deinem Unternehmen einsetzt, solltest du die gesetzlichen Risikoklassen kennen. Der AI-Act unterscheidet vier Hauptklassen, die je nach Anwendungsbereich gelten. Zusätzlich gibt es eine weitere Kategorie, die nicht in dieses Schema passt: die General Purpose AI. Schauen wir uns die vier Risikoklassen genauer an und klären danach, was es eigentlich mit der General Purpose AI auf sich hat.

Minimales Risiko

Viele KI-Systeme, etwa in der Wartung oder in Videospielen, fallen in diese Klasse. Sie unterliegen keinen gesetzlichen Verpflichtungen. Unternehmen können jedoch freiwillig zusätzliche Verhaltensregeln einführen.

Begrenztes Risiko

Diese Kategorie umfasst Systeme, die direkt mit Menschen interagieren. Entwickler:innen von Programmen wie AI-Chatbots müssen klarstellen, dass Inhalte mit künstlicher Intelligenz erstellt wurden.

Hohes Risiko

Wenn Sicherheit, Gesundheit oder Grundrechte von Menschen betroffen sind, gilt ein KI-System als Hochrisiko-Anwendung. Dazu gehört etwa Medizin- oder auch Personal-Software, welche die Dienste einer KI nutzt. Diese Systeme müssen strenge Anforderungen erfüllen, einschließlich Risikominderungssystemen, hoher Qualität der Datensätze, klarer Benutzerinformationen und ständig unter menschlicher Aufsicht sein müssen.

Bereiche, die unter Hochrisiko fallen:

  • Kritische Infrastrukturen: Bereiche wie der Verkehr, deren Funktionsstörungen das Leben und die Gesundheit der Bevölkerung gefährden könnten.
  • Bildung und berufliche Entwicklung: Systeme, die den Zugang zu Bildung oder Karrierechancen beeinflussen, zum Beispiel Prüfungsbewertungen.
  • Sicherheitsrelevante Produktkomponenten: Anwendungen, die in sicherheitskritischen Bereichen wie der robotergestützten Chirurgie eingesetzt werden.
  • Personalmanagement: Software zur Verwaltung von Beschäftigten oder zur Auswahl von Bewerber:innen, wie etwa Programme zur automatischen Lebenslauf-Auswertung.
  • Essenzielle private und öffentliche Dienstleistungen: Systeme, die die Bereitstellung von grundlegenden Dienstleistungen wie Kreditbewertungen beeinflussen, oder die den Zugang zu Krediten bestimmen können.
  • Strafverfolgung: Technologien, die in Prozesse eingreifen, die die Grundrechte betreffen, wie beispielsweise die Beurteilung der Zuverlässigkeit von Beweismitteln.
  • Migrations-, Asyl- und Grenzkontrolle: Automatisierte Systeme zur Bearbeitung von Visumanträgen oder anderen Asylverfahren.
  • Justiz und demokratische Prozesse: KI-gestützte Anwendungen zur Analyse und Interpretation von Gerichtsentscheidungen.

Anforderungen an Hochrisiko-Systeme:

  • Risikobewertung und Risikominderung: Das System muss mögliche Risiken erkennen und Maßnahmen zur Reduktion umsetzen.
  • Hochwertige Datensätze: Die Datenbasis muss zuverlässig und qualitativ hochwertig sein, um Verzerrungen oder diskriminierende Ergebnisse zu vermeiden.
  • Protokollierung: Alle Systemaktivitäten müssen lückenlos aufgezeichnet werden, damit Ergebnisse nachvollziehbar bleiben.
  • Dokumentation: Behörden müssen vollständige Informationen über das System und seinen Einsatz erhalten.
  • Betreiberinformationen: Nutzer:innen brauchen klare und verständliche Anweisungen zur Bedienung.
  • Menschliche Überwachung: Kritische Entscheidungen dürfen nicht allein einer KI überlassen werden. Bei der Freigabe der Zahlungen oder der finalen Bewrtung von Datenschutzvorfällen muss der Mensch das letzte Wort haben. Auch bei automatisierten Prozessen sollten regelmäßige Prüfungen durch Mitarbeitende stattfinden.
  • Robustheit, Sicherheit und Genauigkeit: Das System muss widerstandsfähig, zuverlässig und präzise arbeiten.

Inakzeptables Risiko

KI-Systeme, die ein inakzeptables Risiko darstellen, indem sie Menschen körperlich oder psychisch schädigen könnten, sind verboten. Dazu zählen Anwendungen wie Social Scoring durch Regierungen oder Unternehmen. Sie gelten als direkte Bedrohung der Grundrechte und sind daher untersagt.

Wozu gehört General Purpose AI?

KI-Systeme, die nicht auf eine bestimmte Aufgabe oder einen klaren Einsatzbereich festgelegt sind, werden als General Purpose AI (GPAI) bezeichnet. Sie können in vielen unterschiedlichen Kontexten eingesetzt werden und bilden daher im AI-Act eine eigene Kategorie. Die Regulierung ist flexibler als bei den klassischen Risikogruppen. Welche Anforderungen gelten, hängt vom jeweiligen Anwendungsbereich und den damit verbundenen Risiken ab. Typische Beispiele für GPAI sind ChatGPT, DALL-E oder Midjourney 5.1.

Ab wann gilt der AI-Act und welche Schritte gibt es?

Der AI-Act wurde zwar bereits 2024 verabschiedet, die einzelnen Regelungen treten jedoch erst in den kommenden Jahren in Kraft. Die Anforderungen sind nach ihrer Bedeutung zeitlich gestaffelt. So erhalten Unternehmen genügend Zeit, sich vorzubereiten und sicherzustellen, dass ihre KI-Systeme den Vorgaben entsprechen.

Folgende Schritte wurden bereits umgesetzt:

  • August 2024: Inkraftreten vom AI-Act und schrittweise Einführung der Regelungen
  • Februar 2025: Verbot inakzeptabler KI-Praktiken wie Social Scoring oder manipulative Systeme
  • Mai 2025: Einführung von Verhaltenskodizes („Codes of Conduct“) als Orientierung für die ethische Nutzung von KI
  • August 2025: Start neuer Regeln für General Purpose AI (GPAI) sowie erste organisatorische und Meldepflichten, zum Beispiel bei Sicherheitsvorfällen

Die nächsten Schritte:

  • August 2026: Beginn des Hauptteils der Verpflichtungen für Hochrisiko-KI-Systeme mit Transparenz-, Prüf- und Dokumentationspflichten
  • August 2027: Anwendung der letzten Vorgaben für Hochrisiko-KI, die als Sicherheitskomponente eingesetzt wird. Damit ist die vollständige Umsetzung des AI-Acts abgeschlossen.

Was sind die wichtigsten Schritte für dich zum Umsetzen des AI-Acts?

Damit du den Anforderungen der EU gerecht wirst, solltest du diese Schritte beachten:

  • Bestandsaufnahme machen: Analysiere alle KI-Systeme in deinem Unternehmen. Prüfe, wie sie eingesetzt werden und welche Risiken bestehen.
  • Risikoklasse bestimmen: Ordne deine Systeme in eine der vier Kategorien ein – minimales, begrenztes, hohes oder inakzeptables Risiko. Diese Einstufung entscheidet über die Pflichten.
  • Verpflichtungen prüfen: Kläre, welche Anforderungen für deine Systeme gelten. Dazu gehören Transparenz, Sicherheit, Dokumentation oder Meldepflichten.
  • Maßnahmen umsetzen: Erfülle die gesetzlichen Vorgaben. Das umfasst zum Beispiel Risikomanagement, CE-Kennzeichnung und regelmäßige Prüfungen. So stellst du sicher, dass dein Unternehmen konform bleibt und Sanktionen vermeidet.

Was musst du bei einer Hochrisiko-KI beachten?

Fällt dein System in die Hochrisikokategorie, gelten besondere Vorgaben:

  1. Konformitätsbewertung: Dein KI-System muss geprüft werden und alle Anforderungen erfüllen.
  2. Registrierung: Jedes eigenständige Hochrisiko-KI-System muss in der EU-Datenbank eingetragen werden.
  3. Konformitätserklärung und CE-Kennzeichnung: Nach erfolgreicher Prüfung unterschreibst du die Konformitätserklärung und das KI-System muss die CE-Kennzeichnung. Erst dann darf die Software eingesetzt werden.

Sobald sich am System etwas Grundlegendes ändert, musst du die Schritte erneut durchführen, damit Sicherheit und Standards weiterhin gewährleistet sind.

Welche Sanktionen drohen bei Verstößen gegen den AI-Act?

Artikel 99 des AI-Acts legt fest, welche Sanktionen bei Nichteinhaltung drohen. Sie sollen wirksam, verhältnismäßig und abschreckend sein.

Auf folgende Sanktionen wurde sich geeinigt:

  • Schwerwiegende Verstöße: Bis zu 35 Millionen Euro oder 7 % des weltweiten Jahresumsatzes, etwa bei verbotenen KI-Praktiken wie Social Scoring
  • Weitere Verstöße: Bis zu 15 Millionen Euro oder 3 % des Jahresumsatzes, zum Beispiel bei fehlender CE-Kennzeichnung
  • Unvollständige oder falsche Auskünfte: Bis zu 7,5 Millionen Euro oder 1 % des Jahresumsatzes bei unzureichenden oder fehlenden Angaben beim KI-System

Neben Geldbußen können auch Verwarnungen oder nicht monetäre Maßnahmen verhängt werden. Die Höhe der Strafen und Bußgelder richtet sich nach Faktoren wie Schwere des Verstoßes, wirtschaftlicher Lage des Unternehmens oder Kooperationsbereitschaft. Für kleine und mittlere Unternehmen können geringere Sanktionen gelten, damit ihre wirtschaftliche Existenz nicht gefährdet wird.

Was sind Ausnahmen vom AI-Act?

Neben den definierten Risikoklassen sieht der AI-Act auch bestimmte Ausnahmen vor. Diese sind in Artikel 2, 5 sowie im Erwägungsgrund 31 festgehalten:

  • Artikel 2.3 und 2.6: KI-Systeme, die für militärische oder nationale Sicherheitszwecke oder ausschließlich für wissenschaftliche Forschung und Entwicklung eingesetzt werden, sind vom AI-Act ausgenommen.
  • Artikel 5.2: Algorithmische Videoüberwachung in Echtzeit ist grundsätzlich verboten. Eine Ausnahme gilt, wenn sie polizeilichen Zwecken dient, etwa bei einer realen oder absehbaren Bedrohung durch Terroranschläge.
  • Erwägungsgrund 31: Die soziale Bewertung von Personen ist untersagt. Erlaubt sind jedoch sektorspezifische Bewertungen, sofern sie einem klaren Zweck dienen und rechtlich zulässig sind.

Mit Cybersicherheit zum Erfolg

Der AI-Act ist ein entscheidender Schritt für die digitale Zukunft der Europäischen Union. Dein Unternehmen profitiert, wenn es die neuen Anforderungen frühzeitig berücksichtigt und konsequent umsetzt. So minimierst du nicht nur Risiken, sondern nutzt die Chance, dich als Vorreiter in einer stärker regulierten und digitalisierten Welt zu positionieren.