Das Europäische Parlament betreibt seit kurzem Gespräche zum Gesetz über künstliche Intelligenz (KI) mit den EU-Mitgliedstaaten über die endgültige Gesetzesform. Die Vorschriften sollen dafür sorgen, dass in der EU entwickelte und eingesetzte KI in vollem Umfang den Rechten und Werten der Europäischen Union entspricht. Das umfasst, dass sie von Menschen beaufsichtigt wird, Anforderungen an Sicherheit, Datenschutz und Transparenz genügt, niemanden diskriminiert und weder Gesellschaft noch Umwelt schädigt.
Mit dieser Gesetzgebung reagieren die Abgeordneten auf die Vorschläge zur Sicherstellung der menschlichen Aufsicht über Entscheidungsprozesse, die künstliche Intelligenz einbeziehen (Vorschlag 35(3)), zur vollen Nutzung des Potenzials vertrauenswürdiger KI (35(8)) und zur Nutzung von KI und Übersetzungstechnologien zur Überwindung von Sprachbarrieren (37(3))
Die Vorschriften sollen die Einführung von menschenzentrierter und vertrauenswürdiger KI fördern und Gesundheit, Sicherheit, Grundrechte und Demokratie vor schädlichen Folgen schützen.
Kernpunkte sind:
Die neuen Vorschriften würden KI-Systeme u.a. für biometrische Kategorisierung und Emotionserkennung verbieten
Vollständiges Verbot von künstlicher Intelligenz (KI) für biometrische Überwachung, Emotionserkennung und vorausschauende Polizeiarbeit
- ·Generative KI-Systeme wie ChatGPT müssen angeben, dass Inhalte mithilfe von KI erstellt wurden
- ·Zur Beeinflussung von Wählern eingesetzte KI-Systeme gelten als hochriskant
Verbotene KI-Praktiken
Die Vorschriften richten sich nach dem Grad der Gefahr, die von künstlicher Intelligenz möglicherweise ausgeht. Je nachdem, wie groß diese Gefahr ist, gelten künftig Pflichten für Anbieter und Nutzer. KI-Systeme, die die menschliche Sicherheit in inakzeptabler Weise gefährden, sollen demnach verboten werden, wie z.B. solche, die für „Social Scoring“ (Klassifizierung natürlicher Personen auf der Grundlage ihres sozialen Verhaltens oder ihrer Persönlichkeitsmerkmale) verwendet werden. Die Abgeordneten fordern Verbote für weitere KI-Anwendungen, die in die Privatsphäre eingreifen und diskriminieren, nämlich für
- biometrische Systeme, die es ermöglichen, Personen in Echtzeit oder nachträglich an öffentlich zugänglichen Orten aus der Ferne zu identifizieren,
- Systeme zur biometrischen Kategorisierung anhand sensibler Merkmale (z. B. Geschlecht, Rasse, ethnische Zugehörigkeit, Staatsbürgerschaft, Religion oder politische Orientierung),
- vorausschauende Polizeiarbeit (die mit Profilerstellung und Standortermittlung arbeitet und aufgrund früheren kriminellen Verhaltens abschätzt, inwieweit eine Person Gefahr läuft, straffällig zu werden),
- in der Strafverfolgung, beim Grenzschutz, am Arbeitsplatz und in Bildungseinrichtungen verwendete Emotionserkennungssysteme und
- das ungezielte Auslesen von Gesichtsbildern aus dem Internet oder von Überwachungsaufnahmen zur Erstellung von Gesichtserkennungsdatenbanken (Verletzung der Menschenrechte und des Rechts auf Privatsphäre).
Hochriskante KI
Die Abgeordneten ordneten KI-Systeme, die die Gesundheit, die Sicherheit und die Grundrechte von Menschen bzw. die Umwelt erheblich gefährden, als Hochrisiko-Anwendungen ein. In die entsprechende Liste wurden KI-Systeme aufgenommen, die zur Beeinflussung von Wählern und Wahlergebnissen sowie in Empfehlungssystemen von Social-Media-Plattformen (mit mehr als 45 Millionen Nutzern) eingesetzt werden.
Pflichten für KI-Systeme zur allgemeinen Verwendung
Anbieter von Basismodellen – einer Neuentwicklung im KI-Bereich, die rasante Fortschritte macht – müssen künftig Risiken (für Gesundheit, Sicherheit, die Grundrechte von Personen, die Umwelt oder für Demokratie und Rechtsstaatlichkeit) abschätzen und mindern und ihre Modelle in der entsprechenden EU-Datenbank registrieren, bevor sie auf den EU-Markt kommen. Generative KI-Systeme, die auf solchen Modellen beruhen, wie ChatGPT, müssen Transparenzanforderungen erfüllen, d.h., sie müssen offenlegen, dass die Inhalte KI-generiert sind, was auch dazu beiträgt, sogenannte Deepfake-Fotos von echten Abbildungen zu unterscheiden. Zusätzlich müssen sie dafür sorgen, dass keine rechtswidrigen Inhalte erzeugt werden. Außerdem müssen sie detaillierte Zusammenfassungen der urheberrechtlich geschützten Daten veröffentlichen, die sie zu Trainingszwecken verwendet haben.
Förderung von Innovationen und Schutz der Bürgerrechte
Um KI-Innovationen zu fördern und kleine und mittlere Unternehmen zu unterstützen, fügte das Parlament Ausnahmeregelungen hinzu, die für Forschungstätigkeiten und KI-Komponenten gelten, die im Rahmen von quelloffenen Lizenzen bereitgestellt werden. Die neuen Vorschriften fördern sogenannte Reallabore, in denen Behörden KI-Anwendungen unter realen Bedingungen testen können, bevor sie eingesetzt werden.
Das Parlament will außerdem das Recht der Bürgerinnen und Bürger stärken, Beschwerden über KI-Systeme einzureichen und Entscheidungen erklärt zu bekommen, die auf dem Einsatz hochriskanter KI-Systemen beruhen und ihre Grundrechte erheblich beeinträchtigen. Die Abgeordneten wollen darüber hinaus ein Europäisches Amts für künstliche Intelligenz einrichten, das die Umsetzung des KI-Regelwerks überwachen soll.
EU - ein bedeutenderer Akteur im Bereich der KI?
Die EU gerät im globalen technologischen Wettlauf ins Hintertreffen. Wenn sie eine wirtschaftliche und globale Macht bleiben will (1), sollte sie eine globale Macht im Bereich der KI werden. Wenn die EU nicht schnell und mutig handelt, werde sie zu einer „digitalen Kolonie“ Chinas, der USA und anderer Staaten. Zudem laufe die EU Gefahr, ihre politische Stabilität, soziale Sicherheit und individuelle Freiheiten zu verlieren. Darüber hinaus könnten die neuen Technologien zu einer globalen Machtverschiebung weg von der westlichen Welt führen.
Das Versagen der EU bei der Kommerzialisierung technologischer Innovationen bedeute, dass „unsere besten Ideen, Talente und Unternehmen“ abwandern, heißt es in dem Bericht. Voss warnt davor, dass sich das Fenster der Möglichkeiten schließe, und betont, die EU müsse sich „konzentrieren, Prioritäten setzen und investieren“. Europa sollte sich stärker auf Geschäftsmodelle konzentrieren, die die Umsetzung von Forschung in Produkte ermöglichen, ein wettbewerbsfähiges Umfeld für Unternehmen sicherstellen und eine Abwanderung von Fachkräften verhindern.
„Die großen Datensammler sitzen in China oder in den USA. Wenn wir etwas dagegen tun wollen, müssen wir sehr schnell handeln, denn Geschwindigkeit ist in diesem Bereich eine Frage des Wettbewerbs.“
(1) AIDA Report on Artificial Intelligence in a Digital Age (2020/2266(INI)), Bericht des Sonderausschusses zu künstlicher Intelligenz im digitalen Zeitalter (AIDA)
Foto: Adobe Stock / Alexander Limbach