
Der Artificial Intelligence Act, kurz AI Act, legt klare Regeln für die Entwicklung und den Einsatz von KI-Systemen fest und soll damit einen einheitlichen, verbindlichen Rechtsrahmen in Europa schaffen. Ziel ist es, die Risiken zu minimieren, die von der Technologie ausgehen können. Gleichzeitig soll die KI-Verordnung Forschung und Entwicklung zu KI innerhalb der EU wettbewerbsfähig halten und Innovationen fördern. KI-Anwendungen mit unannehmbaren Risiken, wie Bewertungen des sozialen Verhaltens (sogenanntes social scoring) oder die biometrische Identifizierung von Menschen in Echtzeit, werden durch die Verordnung in Europa verboten. KI-Systeme mit hohem Risiko, wie etwa an Schulen, im Personalmanagement oder in der Strafverfolgung, müssen strenge Sicherheitsvorschriften erfüllen, bevor sie auf dem EU-Markt in Verkehr gebracht werden können. Hier nennen die Autoren der KI-Kompakt-Reihe etwa Anforderungen wie das Risikomanagement, menschliche Überwachung und Qualität der Trainingsdaten.
Kernpunkte der KI-Verordnung
Grundsätzlich legt die KI-Verordnung fest: Die Nutzung von KI muss transparent gemacht werden. Allen Menschen soll stets ersichtlich sein, wann sie mit KI in Berührung kommen. Das gilt für den Chatbot ebenso wie für KI-generierte Bilder und Texte, die künftig entsprechend gekennzeichnet werden müssen.
Ein weiterer Kernpunkt der Verordnung ist der Umgang mit KI-Basismodellen wie ChatGPT, die die Grundlage für viele generative KI-Anwendungen sind. Die Besonderheit: Für solche Modelle ist zunächst keine bestimmte Nutzung vorgesehen. Sie könnten jedoch später in ein Hochrisiko-System integriert werden. Für sie gelten nun abhängig von ihrer Rechenkapazität unterschiedlich strenge Vorschriften zu Transparenz, Cybersicherheit und Energieeffizienz.
„Die KI-Verordnung ist eine Pionierin: Sie stellt den weltweit ersten Versuch dar, die Sicherheit von KI-Systemen ex ante zu gewährleisten. Die Definition, welche Informationssysteme unter den zentralen Begriff des KI-Systems fallen, ist aber komplex: Es soll sich um Systeme mit unterschiedlichen Ausprägungen von Autonomie handeln, die nicht allein anhand von Menschen erstellten Regeln operieren. Allerdings sollen laut den Erwägungsgründen wissens- oder regelbasierte Expertensysteme durchaus von der Verordnung erfasst sein. Die Konkretisierung und Anwendung auf konkrete Grenzfälle bleiben der Rechtsprechung überlassen“, so Ruth Janal, Professorin für Recht an der Universität Bayreuth und Mitglied der Arbeitsgruppe IT-Sicherheit, Privacy, Recht und Ethik der Plattform Lernende Systeme.
Neben der Definition von KI gibt die Anwendung des Gesetzes in den Mitgliedsstaaten Anlass für Bedenken. So könnten unterschiedliche Prüfmechanismen, ob ein KI-System dem Gesetz entspricht, den Wettbewerb verzerren. Kritiker bemängeln zudem, dass der AI Act insbesondere in mittelständischen Unternehmen KI-Innovationen hemmen könnte. Grund dafür sind die möglichen hohen Kosten für die Einhaltung der EU-Vorschriften.
Wie geht es weiter?
Der AI Act tritt 20 Tage nach seiner Veröffentlichung im Amtsblatt der EU in Kraft. Während die Verbote bereits nach sechs Monaten gelten, ist die gesamte Verordnung erst in zwei Jahren anwendbar. Aktuell werden harmonisierte europäische Normen erarbeitet, die regeln sollen, wie die Verordnung in verschiedenen Anwendungsfeldern genau umgesetzt werden kann. Sie werden in allen EU-Mitgliedsländern gelten. Zudem richtet jeder Mitgliedsstaat mindestens eine autorisierte Prüfstelle sowie eine Marktüberwachungsbehörde ein, um die Verordnung auf nationaler Ebene umzusetzen.
KI Kompakt zum Download
Weitere Informationen bietet die dritte Ausgabe der Reihe KI Kompakt der Plattform Lernende Systeme, die zum kostenfreien Download zur Verfügung steht.






































