Die Abgeordneten des Europäischen Parlaments haben sich mit dem Rat auf einen Gesetzentwurf geeinigt, der gewährleisten soll, dass KI in Europa sicher ist, die Grundrechte und die Demokratie respektiert, während Unternehmen florieren und expandieren können.
Die EU gibt folgende Eckdaten bekannt:
- Schutzmaßnahmen für allgemeine künstliche Intelligenz vereinbart
- Beschränkung der Nutzung biometrischer Identifizierungssysteme durch Strafverfolgungsbehörden
- Verbot von Social Scoring und KI, die zur Manipulation oder Ausnutzung von Schwachstellen der Nutzer eingesetzt wird
- Recht der Verbraucher, Beschwerden einzureichen und aussagekräftige Erklärungen zu erhalten
- Bußgelder in Höhe von 35 Millionen Euro oder 7 % des weltweiten Umsatzes bis 7,5 Millionen oder 1,5 % des Umsatzes
Am Freitag erzielten die Unterhändler des Parlaments und des Rates eine vorläufige Einigung über das Gesetz über künstliche Intelligenz. Diese Verordnung soll sicherstellen, dass die Grundrechte, die Demokratie, die Rechtsstaatlichkeit und die ökologische Nachhaltigkeit vor risikoreicher KI geschützt werden, während gleichzeitig die Innovation gefördert und Europa zu einem Vorreiter in diesem Bereich gemacht wird. Die Vorschriften legen Verpflichtungen für KI fest, die sich nach den potenziellen Risiken und dem Ausmaß ihrer Auswirkungen richten.
Verbotene Anwendungen
In Anerkennung der potenziellen Bedrohung der Bürgerrechte und der Demokratie durch bestimmte Anwendungen von KI haben sich die Mitgesetzgeber darauf geeinigt, folgende Anwendungen zu verbieten biometrische Kategorisierungssysteme, die sensible Merkmale verwenden (z. B. politische, religiöse oder philosophische Überzeugungen, sexuelle Orientierung, Rasse):
- das ungezielte Auslesen von Gesichtsbildern aus dem Internet oder aus Videoüberwachungsanlagen zur Erstellung von Datenbanken für die Gesichtserkennung;
- Emotionserkennung am Arbeitsplatz und in Bildungseinrichtungen;
- Soziales Scoring auf der Grundlage von Sozialverhalten oder persönlichen Merkmalen;
- KI-Systeme, die das Verhalten von Menschen manipulieren, um ihren freien Willen zu umgehen;
- KI, die eingesetzt wird, um die Schwächen von Menschen (aufgrund ihres Alters, einer Behinderung, ihrer sozialen oder wirtschaftlichen Lage) auszunutzen.
- Ausnahmen für die Strafverfolgung
Die Verhandlungsführer einigten sich auf eine Reihe von Sicherheitsvorkehrungen und engen Ausnahmen für den Einsatz biometrischer Identifizierungssysteme (RBI) in öffentlich zugänglichen Räumen zu Strafverfolgungszwecken, vorbehaltlich einer vorherigen richterlichen Genehmigung und für streng definierte Listen von Straftaten. Die “Post-Remote”-RBI würde ausschließlich bei der gezielten Suche nach einer Person eingesetzt, die verurteilt wurde oder im Verdacht steht, eine schwere Straftat begangen zu haben.
Die “Echtzeit”-RBI würde strengen Bedingungen unterliegen und ihr Einsatz wäre zeitlich und örtlich begrenzt, und zwar für folgende Zwecke gezielte Durchsuchung von Opfern (Entführung, Menschenhandel, sexuelle Ausbeutung), zur Abwehr einer konkreten und gegenwärtigen terroristischen Bedrohung oder die Lokalisierung oder Identifizierung einer Person, die im Verdacht steht, eine der in der Verordnung genannten Straftaten begangen zu haben (z. B. Terrorismus, Menschenhandel, sexuelle Ausbeutung, Mord, Entführung, Vergewaltigung, bewaffneter Raubüberfall, Beteiligung an einer kriminellen Vereinigung, Umweltkriminalität).
Verpflichtungen für Hochrisikosysteme
Für KI-Systeme, die als hochriskant eingestuft werden (aufgrund ihres erheblichen Schadenspotenzials für Gesundheit, Sicherheit, Grundrechte, Umwelt, Demokratie und Rechtsstaatlichkeit), wurden klare Verpflichtungen vereinbart. Den Abgeordneten gelang es, unter anderem eine obligatorische Folgenabschätzung für die Grundrechte einzuführen, die auch für den Versicherungs- und Bankensektor gilt. KI-Systeme, die zur Beeinflussung des Wahlergebnisses und des Wählerverhaltens eingesetzt werden, werden ebenfalls als hochriskant eingestuft. Die Bürgerinnen und Bürger haben das Recht, sich über KI-Systeme zu beschweren und Erklärungen zu Entscheidungen zu erhalten, die auf KI-Systemen mit hohem Risiko basieren und ihre Rechte beeinträchtigen.
Leitplanken für allgemeine Systeme der künstlichen Intelligenz
Um dem breiten Aufgabenspektrum von KI-Systemen und der raschen Ausweitung ihrer Fähigkeiten Rechnung zu tragen, wurde vereinbart, dass allgemeine KI-Systeme (GPAI) und die GPAI-Modelle, auf denen sie beruhen, den ursprünglich vom Parlament vorgeschlagenen Transparenzanforderungen genügen müssen. Dazu gehören die Erstellung einer technischen Dokumentation, die Einhaltung des EU-Urheberrechts und die Verbreitung detaillierter Zusammenfassungen über die für die Ausbildung verwendeten Inhalte.
Für GPAI-Modelle mit hohem systemischen Risiko konnten die Verhandlungsführer des Parlaments strengere Auflagen durchsetzen. Wenn diese Modelle bestimmte Kriterien erfüllen, müssen sie Modellevaluierungen durchführen, systemische Risiken bewerten und abschwächen, Gegentests durchführen, der Kommission über schwerwiegende Vorfälle berichten, Cybersicherheit gewährleisten und über ihre Energieeffizienz berichten. Die Abgeordneten bestanden auch darauf, dass GPAIs mit systemischen Risiken bis zur Veröffentlichung harmonisierter EU-Standards auf Verhaltenskodizes zurückgreifen können, um die Verordnung einzuhalten.
Maßnahmen zur Unterstützung von Innovation und KMU
Die Abgeordneten wollten sicherstellen, dass Unternehmen, insbesondere KMU, KI-Lösungen entwickeln können, ohne unangemessenen Druck von Branchenriesen, die die Wertschöpfungskette kontrollieren. Zu diesem Zweck fördert die Einigung sogenannte regulatorische Sandkästen und Praxistests, die von nationalen Behörden eingerichtet werden, um innovative KI zu entwickeln und zu trainieren, bevor sie auf den Markt gebracht wird.
Sanktionen und Inkrafttreten
Die Nichteinhaltung der Vorschriften kann zu Geldbußen führen, die je nach Verstoß und Größe des Unternehmens zwischen 35 Millionen Euro oder 7 % des weltweiten Umsatzes und 7,5 Millionen oder 1,5 % des Umsatzes liegen.
Die nächsten Schritte
Der vereinbarte Text muss nun sowohl vom Parlament als auch vom Rat formell angenommen werden, um EU-Recht zu werden. Die Ausschüsse für Binnenmarkt und bürgerliche Freiheiten des Parlaments werden in einer der nächsten Sitzungen über die Vereinbarung abstimmen.
Lesen Sie dazu auch in Bezug auf KI & Yachten: