Gesetz zu künstlicher Intelligenz

EU einigt sich auf AI Act

Die europäischen Gesetzgeber, das Europäische Parlament und der Rat der EU haben sich auf das Gesetz über die künstliche Intelligenz geeinigt. „Künstliche Intelligenz verändert schon heute unseren Alltag. Und das ist erst der Anfang. Klug und breit eingesetzt, verspricht KI enorme Vorteile für unsere Wirtschaft und Gesellschaft. Daher begrüße ich die heutige politische Einigung des Europäischen Parlaments und des Rates über den Rechtsakt zur Künstlichen Intelligenz sehr“, sagte Ursula von der Leyen, Präsidentin der Europäischen Kommission.

Bild: ©BillionPhotoscom/stock.adobe.com

Die Präsidentin betonte weiter: „Das EU-Gesetz über die Künstliche Intelligenz ist der erste umfassende Rechtsrahmen für künstliche Intelligenz weltweit. Dies ist also ein historischer Moment. Mit dem KI-Gesetz werden die europäischen Werte in eine neue Ära überführt. Durch die Konzentration der Regulierung auf erkennbare Risiken wird die heutige Einigung eine verantwortungsvolle Innovation in Europa fördern. Indem sie die Sicherheit und die Grundrechte von Menschen und Unternehmen garantiert, wird sie die Entwicklung, den Einsatz und die Einführung vertrauenswürdiger KI in der EU unterstützen. Unser KI-Gesetz wird einen wesentlichen Beitrag zur Entwicklung globaler Regeln und Grundsätze für menschenzentrierte KI leisten.“

Unterscheidung nach Risiken

Die neuen Vorschriften werden in allen Mitgliedstaaten auf der Grundlage einer zukunftssicheren Definition von KI unmittelbar und in gleicher Weise angewandt. Sie folgen einem risikobasierten Ansatz, der wie folgt unterteilt wird:

  • Minimales Risiko: Die große Mehrheit der KI-Systeme fällt in die Kategorie des minimalen Risikos. Anwendungen mit minimalem Risiko wie etwa KI-gestützte Empfehlungssysteme oder Spam-Filter sollen von einem Freipass und fehlenden Verpflichtungen profitieren, da diese Systeme nur ein minimales oder gar kein Risiko für die Rechte oder die Sicherheit der Bürger darstellen. Wie die Kommission mitteilt können sich Unternehmen auf freiwilliger Basis jedoch zu zusätzlichen Verhaltenskodizes für diese KI-Systeme verpflichten.
  • Hohes Risiko: KI-Systeme, die als risikoreich eingestuft werden, müssen strenge Anforderungen erfüllen, darunter Systeme zur Risikominderung, eine hohe Qualität der Datensätze, die Protokollierung von Aktivitäten, eine ausführliche Dokumentation, klare Benutzerinformationen, menschliche Aufsicht und ein hohes Maß an Robustheit, Genauigkeit und Cybersicherheit. Sogenannte ‚regulatorische Sandkästen‘ sollen verantwortungsvolle Innovationen und die Entwicklung von konformen KI-Systemen erleichtern.

Kritische Infrastrukturen: Beispiele für solche risikoreichen KI-Systeme sind bestimmte kritische Infrastrukturen, etwa in den Bereichen Wasser, Gas und Strom, medizinische Geräte, Systeme zur Bestimmung des Zugangs zu Bildungseinrichtungen oder zur Rekrutierung von Personen oder bestimmte Systeme, die in den Bereichen Strafverfolgung, Grenzkontrolle, Rechtspflege und demokratische Prozesse eingesetzt werden. Darüber hinaus gelten biometrische Identifizierungs-, Kategorisierungs- und Emotionserkennungssysteme ebenfalls als hochriskant.

  • Unannehmbares Risiko: KI-Systeme, die eine eindeutige Bedrohung für die Grundrechte der Menschen darstellen, werden verboten. Dazu gehören KI-Systeme oder -Anwendungen, die das menschliche Verhalten manipulieren, um den freien Willen des Nutzers zu umgehen, wie etwa Spielzeug mit Sprachassistenz, das gefährliches Verhalten von Minderjährigen fördern kann, ‚Social Scoring‘-Systeme, sowie bestimmte Anwendungen der vorausschauenden Polizeiarbeit. Darüber hinaus sieht der AI Act ein Verbot einiger Anwendungen biometrischer Systeme vor, beispielsweise Systeme zur Erkennung von Emotionen am Arbeitsplatz und einige Systeme zur Kategorisierung von Personen oder zur biometrischen Fernidentifizierung in Echtzeit zu Strafverfolgungszwecken in öffentlich zugänglichen Räumen (mit engen Ausnahmen).
  • Spezifisches Transparenzrisiko: Beim Einsatz von KI-Systemen wie Chatbots sollten sich die Nutzer bewusst sein, dass sie mit einer Maschine interagieren. Deep Fakes und andere KI-generierte Inhalte müssen als solche gekennzeichnet werden, und die Nutzer müssen informiert werden, wenn biometrische Kategorisierungs- oder Emotionserkennungssysteme verwendet werden. Darüber hinaus müssen die Anbieter ihre Systeme so gestalten, dass synthetische Audio-, Video-, Text- und Bildinhalte in einem maschinenlesbaren Format gekennzeichnet und als künstlich erzeugt oder manipuliert erkannt werden können.

Unternehmen, die sich nicht an die Vorschriften halten, müssen mit Geldstrafen rechnen. Vorgesehen sind Geldbußen zwischen 35Mio.€ oder 7 Prozent des weltweiten Jahresumsatzes (je nachdem, welcher Betrag höher ist) für Verstöße gegen verbotene KI-Anwendungen. Verstöße gegen andere Verpflichtungen werden von der EU mit 15Mio.€ oder 3 Prozent beziffert. Die Strafe für die Bereitstellung falscher Informationen liegt bei 7,5Mio.€ oder 1,5 Prozent des weltweiten Jahresumsatzes. Für KMU und Start-ups sind bei Verstößen laut EU Kommission verhältnismäßigere Obergrenzen für Bußgelder vorgesehen.