EU AI Act (Europ?isches Gesetz über künstliche Intelligenz)

Transparenz

Was ist der EU AI Act?

Das Gesetz der Europ?ischen Union über künstliche Intelligenz (EU AI Act) ist ein vorgeschlagener Rechtsrahmen für die Entwicklung, Vermarktung und Nutzung von künstlicher Intelligenz (KI).

Mit diesem Rahmen sollen künstliche Intelligenz rechtlich definiert und Dokumentations-, Audit- und Prozessanforderungen für KI-Anbieter festgelegt werden.

Das Rahmenwerk ist risikobasiert und soll wie die Allgemeine Datenschutzverordnung (engl. General Data Protection Regulation, GDPR) ein Gleichgewicht zwischen Innovation, wirtschaftlichen Interessen und den Rechten und der Sicherheit der Bürger herstellen.?

Nach der Verabschiedung wird er für alle 27 EU-Mitgliedstaaten verbindlich und für alle gelten, die KI-Systeme in der Europ?ischen Union entwickeln und verbreiten, einschlie?lich ausl?ndischer Unternehmen wie Microsoft, Google und OpenAI.

Wenn der Rechtsrahmen in Kraft tritt, müssen Unternehmen die von ihren KI-Systemen ausgehenden Risiken vor deren Einsatz f?rmlich bewerten.

Die europ?ische Regierung erh?lt die Befugnis, Unternehmen, die gegen die Vorschriften des Rechtsrahmens versto?en, mit Geldbu?en zu belegen.

Die Gesetzgebung wird auch den europ?ischen Bürgerinnen und Bürgern die Befugnis geben, Beschwerden gegen KI-Anbieter einzureichen, die ihrer Meinung nach gegen das Gesetz versto?en.

Definition von KI

Die rechtliche Definition von KI war eine wichtige Frage bei der Festlegung des Geltungsbereichs der vorgeschlagenen Verordnung.

Die Definition wurde mehrfach überarbeitet, bevor der Rahmen im Juni 2023 vom Europ?ischen Parlament verabschiedet wurde.

Die jüngste überarbeitung des Gesetzes definiert KI als ?ein maschinengestütztes System, das so konzipiert ist, dass es mit einem unterschiedlichen Grad an Autonomie arbeitet, und das für explizite oder implizite Ziele Ergebnisse wie Vorhersagen, Empfehlungen oder Entscheidungen erzeugen kann, die physische oder virtuelle Umgebungen beeinflussen“.

Risikostufen

Nach dem KI-Gesetz wird jede künstliche Intelligenz einer von vier Risikostufen zugeordnet:

  • Unannehmbares Risiko

KI-Systeme, die ein unannehmbares Risiko für die Grundrechte und -freiheiten darstellen, werden verboten.

Dazu geh?ren KI-Systeme, die zur Erstellung von Social-Scoring-Systemen verwendet werden, die zur Diskriminierung bestimmter Personengruppen eingesetzt werden k?nnten; KI-Systeme, die zur Erstellung von Deepfakes zur Verbreitung von Fehlinformationen oder Propaganda eingesetzt werden k?nnten; und nicht autorisierte KI-Systeme, die zur Kontrolle kritischer Infrastrukturen wie Stromnetze oder Verkehrssysteme genutzt werden k?nnten.

  • Hohes Risiko

KI-Systeme, die ein hohes Risiko für die Grundrechte und -freiheiten darstellen, unterliegen einer Reihe von regulatorischen Compliance-Anforderungen.

Dazu geh?ren KI-Systeme, die zur Bewertung der Kreditwürdigkeit oder für Einstellungsentscheidungen eingesetzt werden; KI-Systeme, die zur Gesichtserkennung oder für andere biometrische Identifizierungsdienste verwendet werden; und KI-Systeme, die für medizinische Diagnosen oder Behandlungsempfehlungen genutzt werden.

KI-Systeme mit hohem Risiko bedürfen einer Genehmigung durch eine staatliche Aufsichtsbeh?rde.

Sie müssen auf hochwertigen Daten trainiert werden, über Protokollierungs- und Rückverfolgbarkeitsfunktionen verfügen und einen gründlichen Risikomanagement- und -minderungsprozess durchlaufen.

Den Antr?gen muss eine ausführliche Dokumentation beigefügt werden.

  • Begrenztes Risiko

KI-Systeme, die ein begrenztes Risiko für die Grundrechte und -freiheiten darstellen, unterliegen keinen besonderen Anforderungen, müssen aber dennoch die allgemeinen Grunds?tze einer verantwortungsvollen KI-Ethik einhalten.

Zu dieser Risikokategorie geh?ren KI-Systeme, die für den Kundenservice oder die Beantwortung von Fragen eingesetzt werden; KI-Systeme, die personalisierte Nachrichten oder Produktempfehlungen generieren; und KI-Systeme, die zur Steuerung von Smart-Home-Ger?ten oder zum Spielen verwendet werden.

  • Minimales oder kein Risiko

Für KI-Systeme, die nur ein geringes oder gar kein Risiko für die Grundrechte und -freiheiten darstellen, gelten keine besonderen Anforderungen.

Dazu geh?ren KI-Systeme zur Erkennung und Blockierung von Phishing-E-Mails, zur Erstellung von Wettervorhersagen, zur Verarbeitung von Bildern/Videos oder zur Generierung einfacher Prognosen, etwa ob ein Kunde wahrscheinlich auf eine Anzeige klicken wird.

Das EU-KI-Gesetz kategorisiert unbekannte Risikostufen nicht ausdrücklich, aber es besagt, dass ein KI-System, das ein ?noch nicht bekanntes Risiko darstellt, als hoch riskant einzustufen ist.

Einhaltung des EU-KI-Gesetzes

Das KI-Gesetz der Europ?ischen Union verpflichtet die EU-Mitgliedstaaten, mindestens eine offizielle sichere Sandbox-Umgebung zum Testen von KI-Systemen vor deren Einführung einzurichten.

Die Durchsetzung der Vorschriften obliegt den 27 EU-Mitgliedstaaten. Bei Nichteinhaltung drohen Strafen von bis zu 40 € Millionen oder 7 % des weltweiten Jahresumsatzes eines Unternehmens, je nachdem, welcher Betrag h?her ist.

Viele führende europ?ische Unternehmen haben sich gegen die vorgeschlagene Gesetzgebung der Europ?ischen Union gewandt und davor gewarnt, dass die geplanten Regeln für risikoreiche KI zu weit gehen, insbesondere im Hinblick auf die Regulierung von generativer KI und Basismodellen, der Technologie hinter beliebten Plattformen wie ChatGPT.

Sie haben ihre Besorgnis darüber zum Ausdruck gebracht, dass der EU-Vorschlag GPAIS (General Purpose Artificial Intelligence Systems) und gro?e Sprachmodelle (LLMs) ungeachtet ihrer Anwendungsf?lle zu weit fasst, und behaupten, dass der damit verbundene hohe Befolgungsaufwand die Innovation hemmen und Investoren abschrecken wird.

Konkurrierende Vorschl?ge für KI-Gesetzgebung

Das KI-Gesetz der Europ?ischen Union wurde im Juni 2023 vom Europ?ischen Parlament verabschiedet.

Nach langen Verhandlungen haben sich die europ?ischen Gesetzgeber, das Europ?ische Parlament und der Rat der EU auf das Gesetz über die Künstliche Intelligenz politisch geeinigt.

Die Einigung muss nun noch vom Europ?ischen Parlament und vom Rat formell genehmigt werden. Nach der Verabschiedung des KI-Gesetzes wird es eine übergangszeit geben, bevor die Verordnung anwendbar wird.

Mit der fortschreitenden Entwicklung der KI erkennen jedoch auch andere L?nder und Organisationen die Notwendigkeit, künstliche Intelligenz gesetzlich zu regeln.

Im Allgemeinen unterscheiden sich die konkurrierenden Vorschl?ge zur Regulierung von KI in ihrem Regelungsumfang, ihrem Detaillierungsgrad sowie ihren Durchsetzungsmechanismen.

Einige Staaten sind eher über die ethischen Risiken der KI besorgt, wie z. B. die maschinelle Voreingenommenheit und die Verletzung der Privatsph?re, w?hrend andere sich mehr Gedanken über die F?rderung der potenziellen Vorteile der KI und des Wirtschaftswachstums machen.

Mehr als ein Land k?mpft mit der Schaffung einer Gesetzgebung, die ein Gleichgewicht zwischen diesen beiden Anliegen herstellt.

Zu den konkurrierenden Initiativen und vorgeschlagenen Rahmenwerken aus aller Welt geh?ren:

Land Gesetzgebung/Strategie Beschreibung
USA Rahmen für sichere Innovation für KI-Politik Ein Rahmen, der vier ?Leitplanken für die KI-Regulierung umrei?t: Rechenschaftspflicht, Transparenz, Erkl?rbarkeit und Sicherheit.
Entwurf für ein ?AI Bill of Rights Skizziert branchenweite Best-Practice-Grunds?tze für die Entwicklung und Nutzung von KI.
Nationale Initiative für künstliche Intelligenz Eine überparteiliche Initiative zur Beschleunigung der verantwortungsvollen, ethischen Entwicklung und Einführung von KI in den Vereinigten Staaten.
China Entwicklungsplan für künstliche Intelligenz der neuen Generation Ein Plan, der Chinas Vision für die KI-Entwicklung, insbesondere in den Bereichen Gesundheit, Verkehr und Sicherheit, umrei?t.
Vorschriften über die Verwaltung von Produkten und Dienstleistungen, die durch künstliche Intelligenz unterstützt werden Schafft einen Rahmen für Modelle und Regeln, die zur Erstellung von KI-gestützten Inhalten verwendet werden.
KI-Ethik-Leitlinien für die Entwicklung und Anwendung von künstlicher Intelligenz Richtlinien, die Grunds?tze für die ethische Entwicklung und Nutzung von KI in China enthalten.
Vereinigtes K?nigreich Nationale KI-Strategie Eine Strategie, die die Vision der britischen Regierung für die KI-Entwicklung in den Bereichen Gesundheit, Bildung und Umwelt umrei?t.
KI-Governance-Rahmen Rahmenwerk, das den Schwerpunkt auf Innovation legt und Grunds?tze für die KI-Governance im Vereinigten K?nigreich enth?lt, darunter Transparenz, Rechenschaftspflicht und Ethik.
Kanada Das Gesetz über künstliche Intelligenz und Daten (AIDA) Vorschlag für einen Rechtsrahmen für KI in Kanada, der alle KI-Anwendungen unabh?ngig vom Risiko abdeckt.
Kanadaweite KI-Strategie Die Vision der kanadischen Regierung für die KI-Entwicklung konzentriert sich auf die Bereiche Gesundheitswesen, Verkehr und Umwelt.
Australien KI-Ethik-Rahmen Ein Rahmen, der die ethischen Grunds?tze für die Entwicklung und den Einsatz von KI in Australien darlegt.
Südkorea KI-Ethik-Richtlinien Richtlinien mit ethischen Grunds?tzen für die Entwicklung und Nutzung von KI in Südkorea.
Gesetz zur F?rderung der KI-Industrie Ein Masterplan, der die bisher fragmentierten Rechtsvorschriften für KI in Südkorea zusammenfasst.
Japan KI-Ethik-Richtlinien Leitlinien für die Entwicklung und den Einsatz von KI in Japan.
Gesetz zur F?rderung der Forschung, Entwicklung und Nutzung von künstlicher Intelligenz Ein nicht-regulatorischer und nicht-bindender Rahmen für die Entwicklung und Nutzung von KI in Japan.
Singapur KI-Governance-Rahmen Rahmen für KI-Governance in Singapur, der Transparenz, Rechenschaftspflicht und Ethik berücksichtigt.
Nationale Strategie für künstliche Intelligenz Eine Strategie, die die Vision der Regierung Singapurs für die KI-Entwicklung in den Bereichen Gesundheit, Bildung und Umwelt darlegt.

Verwandte Begriffe

Margaret Rouse
Redaktion
Margaret Rouse
Redaktion

Margaret Rouse ist eine preisgekr?nte technische Autorin und Dozentin. Sie ist für ihre F?higkeit bekannt, komplexe technische Themen simpel und nachvollziehbar zu erkl?ren. In den letzten zwanzig Jahren sind ihre Erkl?rungen auf TechTarget-Websites erschienen und sie wurde in Artikeln der New York Times, des Time Magazine, USA Today, ZDNet, PC Magazine und Discovery Magazine als Quelle und Expertin zitiert. Wenn Sie einen Vorschlag für eine neue Definition haben oder eine technische Erkl?rung verbessern m?chten, schicken Sie einfach Margaret eine E-Mail oder kontaktieren Sie sie auf LinkedIn oder Twitter.

',a='';if(l){t=t.replace('data-lazy-','');t=t.replace('loading="lazy"','');t=t.replace(/