Was ist der EU AI Act?
Das Gesetz der Europ?ischen Union über künstliche Intelligenz (EU AI Act) ist ein vorgeschlagener Rechtsrahmen für die Entwicklung, Vermarktung und Nutzung von künstlicher Intelligenz (KI).
Mit diesem Rahmen sollen künstliche Intelligenz rechtlich definiert und Dokumentations-, Audit- und Prozessanforderungen für KI-Anbieter festgelegt werden.
Das Rahmenwerk ist risikobasiert und soll wie die Allgemeine Datenschutzverordnung (engl. General Data Protection Regulation, GDPR) ein Gleichgewicht zwischen Innovation, wirtschaftlichen Interessen und den Rechten und der Sicherheit der Bürger herstellen.?
Nach der Verabschiedung wird er für alle 27 EU-Mitgliedstaaten verbindlich und für alle gelten, die KI-Systeme in der Europ?ischen Union entwickeln und verbreiten, einschlie?lich ausl?ndischer Unternehmen wie Microsoft, Google und OpenAI.
Wenn der Rechtsrahmen in Kraft tritt, müssen Unternehmen die von ihren KI-Systemen ausgehenden Risiken vor deren Einsatz f?rmlich bewerten.
Die europ?ische Regierung erh?lt die Befugnis, Unternehmen, die gegen die Vorschriften des Rechtsrahmens versto?en, mit Geldbu?en zu belegen.
Die Gesetzgebung wird auch den europ?ischen Bürgerinnen und Bürgern die Befugnis geben, Beschwerden gegen KI-Anbieter einzureichen, die ihrer Meinung nach gegen das Gesetz versto?en.
Definition von KI
Die rechtliche Definition von KI war eine wichtige Frage bei der Festlegung des Geltungsbereichs der vorgeschlagenen Verordnung.
Die Definition wurde mehrfach überarbeitet, bevor der Rahmen im Juni 2023 vom Europ?ischen Parlament verabschiedet wurde.
Die jüngste überarbeitung des Gesetzes definiert KI als ?ein maschinengestütztes System, das so konzipiert ist, dass es mit einem unterschiedlichen Grad an Autonomie arbeitet, und das für explizite oder implizite Ziele Ergebnisse wie Vorhersagen, Empfehlungen oder Entscheidungen erzeugen kann, die physische oder virtuelle Umgebungen beeinflussen“.
Risikostufen
Nach dem KI-Gesetz wird jede künstliche Intelligenz einer von vier Risikostufen zugeordnet:
- Unannehmbares Risiko
KI-Systeme, die ein unannehmbares Risiko für die Grundrechte und -freiheiten darstellen, werden verboten.
Dazu geh?ren KI-Systeme, die zur Erstellung von Social-Scoring-Systemen verwendet werden, die zur Diskriminierung bestimmter Personengruppen eingesetzt werden k?nnten; KI-Systeme, die zur Erstellung von Deepfakes zur Verbreitung von Fehlinformationen oder Propaganda eingesetzt werden k?nnten; und nicht autorisierte KI-Systeme, die zur Kontrolle kritischer Infrastrukturen wie Stromnetze oder Verkehrssysteme genutzt werden k?nnten.
- Hohes Risiko
KI-Systeme, die ein hohes Risiko für die Grundrechte und -freiheiten darstellen, unterliegen einer Reihe von regulatorischen Compliance-Anforderungen.
Dazu geh?ren KI-Systeme, die zur Bewertung der Kreditwürdigkeit oder für Einstellungsentscheidungen eingesetzt werden; KI-Systeme, die zur Gesichtserkennung oder für andere biometrische Identifizierungsdienste verwendet werden; und KI-Systeme, die für medizinische Diagnosen oder Behandlungsempfehlungen genutzt werden.
KI-Systeme mit hohem Risiko bedürfen einer Genehmigung durch eine staatliche Aufsichtsbeh?rde.
Sie müssen auf hochwertigen Daten trainiert werden, über Protokollierungs- und Rückverfolgbarkeitsfunktionen verfügen und einen gründlichen Risikomanagement- und -minderungsprozess durchlaufen.
Den Antr?gen muss eine ausführliche Dokumentation beigefügt werden.
- Begrenztes Risiko
KI-Systeme, die ein begrenztes Risiko für die Grundrechte und -freiheiten darstellen, unterliegen keinen besonderen Anforderungen, müssen aber dennoch die allgemeinen Grunds?tze einer verantwortungsvollen KI-Ethik einhalten.
Zu dieser Risikokategorie geh?ren KI-Systeme, die für den Kundenservice oder die Beantwortung von Fragen eingesetzt werden; KI-Systeme, die personalisierte Nachrichten oder Produktempfehlungen generieren; und KI-Systeme, die zur Steuerung von Smart-Home-Ger?ten oder zum Spielen verwendet werden.
- Minimales oder kein Risiko
Für KI-Systeme, die nur ein geringes oder gar kein Risiko für die Grundrechte und -freiheiten darstellen, gelten keine besonderen Anforderungen.
Dazu geh?ren KI-Systeme zur Erkennung und Blockierung von Phishing-E-Mails, zur Erstellung von Wettervorhersagen, zur Verarbeitung von Bildern/Videos oder zur Generierung einfacher Prognosen, etwa ob ein Kunde wahrscheinlich auf eine Anzeige klicken wird.
Das EU-KI-Gesetz kategorisiert unbekannte Risikostufen nicht ausdrücklich, aber es besagt, dass ein KI-System, das ein ?noch nicht bekanntes Risiko“ darstellt, als hoch riskant einzustufen ist.
Einhaltung des EU-KI-Gesetzes
Das KI-Gesetz der Europ?ischen Union verpflichtet die EU-Mitgliedstaaten, mindestens eine offizielle sichere Sandbox-Umgebung zum Testen von KI-Systemen vor deren Einführung einzurichten.
Die Durchsetzung der Vorschriften obliegt den 27 EU-Mitgliedstaaten. Bei Nichteinhaltung drohen Strafen von bis zu 40 € Millionen oder 7 % des weltweiten Jahresumsatzes eines Unternehmens, je nachdem, welcher Betrag h?her ist.
Viele führende europ?ische Unternehmen haben sich gegen die vorgeschlagene Gesetzgebung der Europ?ischen Union gewandt und davor gewarnt, dass die geplanten Regeln für risikoreiche KI zu weit gehen, insbesondere im Hinblick auf die Regulierung von generativer KI und Basismodellen, der Technologie hinter beliebten Plattformen wie ChatGPT.
Sie haben ihre Besorgnis darüber zum Ausdruck gebracht, dass der EU-Vorschlag GPAIS (General Purpose Artificial Intelligence Systems) und gro?e Sprachmodelle (LLMs) ungeachtet ihrer Anwendungsf?lle zu weit fasst, und behaupten, dass der damit verbundene hohe Befolgungsaufwand die Innovation hemmen und Investoren abschrecken wird.
Konkurrierende Vorschl?ge für KI-Gesetzgebung
Das KI-Gesetz der Europ?ischen Union wurde im Juni 2023 vom Europ?ischen Parlament verabschiedet.
Nach langen Verhandlungen haben sich die europ?ischen Gesetzgeber, das Europ?ische Parlament und der Rat der EU auf das Gesetz über die Künstliche Intelligenz politisch geeinigt.
Die Einigung muss nun noch vom Europ?ischen Parlament und vom Rat formell genehmigt werden. Nach der Verabschiedung des KI-Gesetzes wird es eine übergangszeit geben, bevor die Verordnung anwendbar wird.
Mit der fortschreitenden Entwicklung der KI erkennen jedoch auch andere L?nder und Organisationen die Notwendigkeit, künstliche Intelligenz gesetzlich zu regeln.
Im Allgemeinen unterscheiden sich die konkurrierenden Vorschl?ge zur Regulierung von KI in ihrem Regelungsumfang, ihrem Detaillierungsgrad sowie ihren Durchsetzungsmechanismen.
Einige Staaten sind eher über die ethischen Risiken der KI besorgt, wie z. B. die maschinelle Voreingenommenheit und die Verletzung der Privatsph?re, w?hrend andere sich mehr Gedanken über die F?rderung der potenziellen Vorteile der KI und des Wirtschaftswachstums machen.
Mehr als ein Land k?mpft mit der Schaffung einer Gesetzgebung, die ein Gleichgewicht zwischen diesen beiden Anliegen herstellt.
Zu den konkurrierenden Initiativen und vorgeschlagenen Rahmenwerken aus aller Welt geh?ren:
Land
Gesetzgebung/Strategie
Beschreibung
USA
Rahmen für sichere Innovation für KI-Politik
Ein Rahmen, der vier ?Leitplanken“ für die KI-Regulierung umrei?t: Rechenschaftspflicht, Transparenz, Erkl?rbarkeit und Sicherheit.
Entwurf für ein ?AI Bill of Rights“
Skizziert branchenweite Best-Practice-Grunds?tze für die Entwicklung und Nutzung von KI.
Nationale Initiative für künstliche Intelligenz
Eine überparteiliche Initiative zur Beschleunigung der verantwortungsvollen, ethischen Entwicklung und Einführung von KI in den Vereinigten Staaten.
China
Entwicklungsplan für künstliche Intelligenz der neuen Generation
Ein Plan, der Chinas Vision für die KI-Entwicklung, insbesondere in den Bereichen Gesundheit, Verkehr und Sicherheit, umrei?t.
Vorschriften über die Verwaltung von Produkten und Dienstleistungen, die durch künstliche Intelligenz unterstützt werden
Schafft einen Rahmen für Modelle und Regeln, die zur Erstellung von KI-gestützten Inhalten verwendet werden.
KI-Ethik-Leitlinien für die Entwicklung und Anwendung von künstlicher Intelligenz
Richtlinien, die Grunds?tze für die ethische Entwicklung und Nutzung von KI in China enthalten.
Vereinigtes K?nigreich
Nationale KI-Strategie
Eine Strategie, die die Vision der britischen Regierung für die KI-Entwicklung in den Bereichen Gesundheit, Bildung und Umwelt umrei?t.
KI-Governance-Rahmen
Rahmenwerk, das den Schwerpunkt auf Innovation legt und Grunds?tze für die KI-Governance im Vereinigten K?nigreich enth?lt, darunter Transparenz, Rechenschaftspflicht und Ethik.
Kanada
Das Gesetz über künstliche Intelligenz und Daten (AIDA)
Vorschlag für einen Rechtsrahmen für KI in Kanada, der alle KI-Anwendungen unabh?ngig vom Risiko abdeckt.
Kanadaweite KI-Strategie
Die Vision der kanadischen Regierung für die KI-Entwicklung konzentriert sich auf die Bereiche Gesundheitswesen, Verkehr und Umwelt.
Australien
KI-Ethik-Rahmen
Ein Rahmen, der die ethischen Grunds?tze für die Entwicklung und den Einsatz von KI in Australien darlegt.
Südkorea
KI-Ethik-Richtlinien
Richtlinien mit ethischen Grunds?tzen für die Entwicklung und Nutzung von KI in Südkorea.
Gesetz zur F?rderung der KI-Industrie
Ein Masterplan, der die bisher fragmentierten Rechtsvorschriften für KI in Südkorea zusammenfasst.
Japan
KI-Ethik-Richtlinien
Leitlinien für die Entwicklung und den Einsatz von KI in Japan.
Gesetz zur F?rderung der Forschung, Entwicklung und Nutzung von künstlicher Intelligenz
Ein nicht-regulatorischer und nicht-bindender Rahmen für die Entwicklung und Nutzung von KI in Japan.
Singapur
KI-Governance-Rahmen
Rahmen für KI-Governance in Singapur, der Transparenz, Rechenschaftspflicht und Ethik berücksichtigt.
Nationale Strategie für künstliche Intelligenz
Eine Strategie, die die Vision der Regierung Singapurs für die KI-Entwicklung in den Bereichen Gesundheit, Bildung und Umwelt darlegt.