17.12.2023

Politische Einigung zwischen EU-Parlament und Rat auf KI-Gesetz

Weitere News
zu dem Thema

Nach langen Verhandlungen haben sich die europäischen Gesetzgeber, das Europäische Parlament und der Rat der EU am 8.12.2023 auf das Gesetz über die Künstliche Intelligenz politisch geeinigt.

Risikobasierter Ansatz
Die neuen Vorschriften werden in allen Mitgliedstaaten auf der Grundlage einer zukunftssicheren Definition von KI unmittelbar und in gleicher Weise angewandt. Sie folgen einem risikobasierten Ansatz:

Minimales Risiko
Die große Mehrheit der KI-Systeme fällt in die Kategorie des minimalen Risikos. Anwendungen mit minimalem Risiko wie KI-gestützte Empfehlungssysteme oder Spam-Filter werden von einem Freipass und fehlenden Verpflichtungen profitieren, da diese Systeme nur ein minimales oder gar kein Risiko für die Rechte oder die Sicherheit der Bürger darstellen. Auf freiwilliger Basis können sich die Unternehmen jedoch zu zusätzlichen Verhaltenskodizes für diese KI-Systeme verpflichten.

Hohes Risiko
KI-Systeme, die als risikoreich eingestuft werden, müssen strenge Anforderungen erfüllen, darunter Systeme zur Risikominderung, eine hohe Qualität der Datensätze, die Protokollierung von Aktivitäten, eine ausführliche Dokumentation, klare Benutzerinformationen, menschliche Aufsicht und ein hohes Maß an Robustheit, Genauigkeit und Cybersicherheit. Regulatorische Sandkästen werden verantwortungsvolle Innovationen und die Entwicklung von konformen KI-Systemen erleichtern.

Kritische Infrastrukturen
Beispiele für solche risikoreichen KI-Systeme sind bestimmte kritische Infrastrukturen, z. B. in den Bereichen Wasser, Gas und Strom, medizinische Geräte, Systeme zur Bestimmung des Zugangs zu Bildungseinrichtungen oder zur Rekrutierung von Personen oder bestimmte Systeme, die in den Bereichen Strafverfolgung, Grenzkontrolle, Rechtspflege und demokratische Prozesse eingesetzt werden. Darüber hinaus gelten biometrische Identifizierungs-, Kategorisierungs- und Emotionserkennungssysteme ebenfalls als hochriskant.

Unannehmbares Risiko
KI-Systeme, die eine eindeutige Bedrohung für die Grundrechte der Menschen darstellen, werden verboten. Dazu gehören KI-Systeme oder -Anwendungen, die das menschliche Verhalten manipulieren, um den freien Willen des Nutzers zu umgehen, wie z. B. Spielzeug mit Sprachassistenz, das gefährliches Verhalten von Minderjährigen fördert, oder Systeme, die ein "Social Scoring" durch Regierungen oder Unternehmen ermöglichen, sowie bestimmte Anwendungen der vorausschauenden Polizeiarbeit. Darüber hinaus werden einige Anwendungen biometrischer Systeme verboten, z. B. Systeme zur Erkennung von Emotionen am Arbeitsplatz und einige Systeme zur Kategorisierung von Personen oder zur biometrischen Fernidentifizierung in Echtzeit zu Strafverfolgungszwecken in öffentlich zugänglichen Räumen (mit engen Ausnahmen).

Spezifisches Transparenzrisiko
Beim Einsatz von KI-Systemen wie Chatbots sollten sich die Nutzer bewusst sein, dass sie mit einer Maschine interagieren. Deep Fakes und andere KI-generierte Inhalte müssen als solche gekennzeichnet werden, und die Nutzer müssen informiert werden, wenn biometrische Kategorisierungs- oder Emotionserkennungssysteme verwendet werden. Darüber hinaus müssen die Anbieter ihre Systeme so gestalten, dass synthetische Audio-, Video-, Text- und Bildinhalte in einem maschinenlesbaren Format gekennzeichnet und als künstlich erzeugt oder manipuliert erkannt werden können.

Strafen
Unternehmen, die sich nicht an die Vorschriften halten, müssen mit Geldstrafen rechnen.

KI für allgemeine Zwecke
Mit dem KI-Gesetz werden spezielle Vorschriften für KI-Modelle für allgemeine Zwecke eingeführt, die für Transparenz entlang der Wertschöpfungskette sorgen werden. Für sehr leistungsfähige Modelle, die systemische Risiken darstellen könnten, wird es zusätzliche verbindliche Verpflichtungen in Bezug auf das Risikomanagement und die Überwachung schwerwiegender Vorfälle sowie die Durchführung von Modellevaluierungen und Tests mit gegnerischen Systemen geben. Diese neuen Verpflichtungen werden durch Verhaltenskodizes operationalisiert, die von der Industrie, der Wissenschaft, der Zivilgesellschaft und anderen Interessengruppen zusammen mit der Kommission entwickelt werden.

Neues Office für Künstliche Intelligenz
Was die Verwaltung betrifft, so werden die zuständigen nationalen Marktaufsichtsbehörden die Umsetzung der neuen Vorschriften auf nationaler Ebene überwachen, während die Einrichtung eines neuen europäischen AI-Offices innerhalb der Europäischen Kommission die Koordinierung auf europäischer Ebene sicherstellen wird. Das neue Office für Künstliche Intelligenz wird auch die Umsetzung und Durchsetzung der neuen Vorschriften für allgemeine KI-Modelle überwachen. Zusammen mit den nationalen Marktaufsichtsbehörden wird das Amt für künstliche Intelligenz die erste Stelle auf der Welt sein, die verbindliche Vorschriften für künstliche Intelligenz durchsetzt, und soll daher zu einem internationalen Bezugspunkt werden. Für allgemeine Modelle wird ein wissenschaftliches Gremium unabhängiger Experten eine zentrale Rolle spielen, indem es Warnungen zu systemischen Risiken herausgibt und zur Klassifizierung und Prüfung der Modelle beiträgt.

Nächste Schritte
Die politische Einigung muss nun noch vom Europäischen Parlament und vom Rat formell genehmigt werden. Nach der Verabschiedung des AI-Gesetzes wird es eine Übergangszeit geben, bevor die Verordnung anwendbar wird. Um diese Zeit zu überbrücken, wird die Kommission einen KI-Pakt ins Leben rufen. Er wird KI-Entwickler aus Europa und der ganzen Welt zusammenbringen, die sich auf freiwilliger Basis verpflichten, die wichtigsten Verpflichtungen des KI-Gesetzes bereits vor Ablauf der gesetzlichen Fristen umzusetzen.

Internationale Ebene
Um Regeln für vertrauenswürdige KI auf internationaler Ebene zu fördern, wird die Europäische Union weiterhin in Foren wie der G7, der OECD, dem Europarat, der G20 und der UNO mitarbeiten. Erst kürzlich haben wir die Einigung der G7-Staats- und Regierungschefs im Rahmen des Hiroshima-Prozesses für KI auf internationale Leitprinzipien und einen freiwilligen Verhaltenskodex für fortgeschrittene KI-Systeme unterstützt.

Weitere Informationen:
Die vollständige Pressemitteilung mit Hintergründen

Das Statement der EU-Kommissionspräsidentin

Neue Vorschriften für künstliche Intelligenz - Fragen und Antworten (Aktualisierung in Kürze verfügbar)

Neue Regeln für Künstliche Intelligenz - Fakten-Seite

Hiroshima KI-Prozess: Leitprinzipien und ein Verhaltenskodex für künstliche Intelligenz

Koordinierter Plan für künstliche Intelligenz

Verordnung über maschinelle Produkte

Haftungsregeln für Künstliche Intelligenz

Europäisches Zentrum für Algorithmische Transparenz, Gemeinsame Forschungsstelle

Ein Service des deutschen Präventionstages.
www.praeventionstag.de

Weitere News vom Sonntag, 17. Dezember 2023


Bisherige News aus dem Bereich: Prävention in der digitalen Welt

04.12.2023