Skip to main content

Die Einführung des EU AI Act spiegelt das Bestreben der Europäischen Union wider, die Entwicklung und Anwendung von künstlicher Intelligenz (KI) zu regulieren. Dieses Bestreben ist von dem Wunsch geleitet, eine Balance zwischen der Förderung technologischer Innovationen und dem Schutz der Bürger*innen vor potenziellen Risiken zu finden, die mit der Nutzung von KI-Technologien verbunden sein können. Im Mittelpunkt dieses regulatorischen Rahmens stehen dabei spezifische Hauptziele, die sich wie folgt zusammenfassen lassen:

  • Einführung eines risikobasierten Ansatzes für die Regulierung von KI, der zwischen verschiedenen Risikostufen unterscheidet und entsprechende Anforderungen stellt.
  • Gewährleistung der Transparenz von KI-Systemen, insbesondere wenn diese in sensiblen Bereichen eingesetzt werden oder direkte Auswirkungen auf Einzelpersonen haben.
  • Stärkung des Datenschutzes und der Datensicherheit im Zusammenhang mit dem Einsatz von KI.
  • Schaffung eines günstigen Umfelds für Forschung, Entwicklung und Nutzung von KI-Technologien in der EU.
  • Förderung der internationalen Zusammenarbeit bei der Regulierung von KI, um globale Standards und Normen zu schaffen.

Kernpunkte und Klassifizierung von KI-Systemen

Der EU AI Act teilt KI-Systeme in vier Risikokategorien ein, von „inakzeptablem Risiko“ bis hin zu „begrenztem oder keinem Risiko“, und legt für jede Kategorie spezifische Anforderungen fest.

KI-Systeme mit inakzeptablem Risiko, wie z.B. solche, die biometrische Kategorisierungen oder Social Scoring ermöglichen, werden bereits sechs Monate nach der offiziellen Verabschiedung vollständig verboten.

KI-Systeme mit hohem Risiko sind weiterhin erlaubt, unterliegen aber strengen Prüf- und Transparenzanforderungen. Das Regelwerk umfasst folgende Bereiche:

  • Kritische Infrastrukturen, die das Leben und die Gesundheit der Bürger gefährden können
  • Bildung und Ausbildung, die den Zugang zu Bildung und den beruflichen Werdegang einer Person bestimmen können
  • Sicherheitselemente von Produkten
  • Beschäftigung, Personalverwaltung und Zugang zu selbständiger Erwerbstätigkeit
  • Wesentliche private und öffentliche Dienstleistungen
  • Strafverfolgung, die in die Grundrechte der Menschen eingreifen kann
  • Migrations, Asyl und Grenzkontrollen
  • Justizverwaltung und demokratische Prozesse

KI-Systeme mit begrenztem Risiko wie ChatGPT, werden nicht als risikoreich eingestuft, müssen aber bestimmte Transparenzverpflichtungen und das EU-Urheberrecht einhalten. So müssen Anbieter beispielsweise sicherstellen, dass KI-generierte Inhalte als solche identifizierbar sind. Ausserdem dürfen solche KI-Systeme keine rechtswidrigen Inhalte generieren. Entwickler müssen zudem die Funktionsweise ihrer KI-Systeme dokumentieren und sicherstellen, dass die verwendeten Trainingsdaten frei von Vorurteilen sind. Dies soll nicht nur die Fairness und Genauigkeit von KI-Anwendungen gewährleisten, sondern auch das Vertrauen der Nutzer in diese Technologien stärken.

KI-Systeme mit minimalem oder keinem Risiko werden nach EU AI Act weiterhin zur freien Nutzung zugelassen. Darunter fallen Anwendungen wie KI-fähige Videospiele oder Spamfilter. Die überwiegende Mehrheit der derzeit in der EU eingesetzten KI-Systeme fällt in diese Kategorie.

Auswirkungen und Herausforderungen

Die Umsetzung des EU AI Act wird weitreichende Auswirkungen auf Unternehmen und Forschungseinrichtungen haben. Insbesondere bei KMU und Start-ups könnten erhebliche Kosten für die Einhaltung der Vorschriften entstehen. Es ist sehr wahrscheinlich, dass sie die notwendigen Investitionen nur schwer tätigen können, was ihre Wettbewerbsfähigkeit beeinträchtigen könnte. Grössere Organisationen könnten eher über die Ressourcen verfügen, um die Compliance-Richtlinien zu gewährleisten.

Generell befürchten Kritiker, dass der EU AI Act zu einer Überregulierung führen könnte, die Innovationen bremst und Unternehmen im EU-Raum im globalen Wettbewerb benachteiligt. Es wird vermutet, dass zu strenge Vorschriften den technologischen Fortschritt verlangsamen und Start-ups davon abhalten könnten, schnell innovative Lösungen zu entwickeln.

Zu den Herausforderungen bei der Umsetzung des Gesetzes gehören auch die Überprüfung der Einhaltung und die Durchsetzung der Vorschriften. Zu diesem Zweck sieht der EU AI Act die Schaffung eines EU-Ausschusses für künstliche Intelligenz vor. Dieser delegiert die Rechtsdurchsetzung an die nationalen Behörden, die bei Verstössen Bussgeldern von bis zu 7 Prozent des weltweiten Vorjahresumsatzes oder 35 Millionen Euro verhängen können. Das ist deutlich mehr als bei Verstössen gegen die DSGVO.

Es bleibt abzuwarten, wie effektiv die EU und ihre Mitgliedsstaaten die Einhaltung überwachen und Verstösse ahnden können. Trotz dieser Herausforderungen kann der EU AI Act die Chance bieten, die Entwicklung von KI in einer Weise zu steuern, die ethischen Überlegungen Rechnung trägt und gleichzeitig Innovationen in diesem Bereich nicht zu sehr einschränkt.

Nächste Schritte und Zeitplan

Der vereinbarte Gesetzestext soll noch im April 2024 formell verabschiedet werden. Er wird 24 Monate nach seinem Inkrafttreten in vollem Umfang anwendbar sein, einige Teile jedoch bereits früher. Dies gilt beispielsweise für das Verbot von KI-Systemen mit inakzeptablem Risiko, das bereits sechs Monate nach Annahme in Kraft treten wird.

Wie bereits im Artikel erläutert, unterstreicht der EU AI Act die wachsende Bedeutung von Künstlicher Intelligenz. Du stehst vor einem konkreten Projekt und suchst einen erfahrenen Partner im Bereich KI-gestützter Softwareentwicklung und Data Engineering? Wir bieten dir die nötige Expertise und Unterstützung, um dein Projekt erfolgreich umzusetzen.