Künstliche Intelligenz

»Historische Einigung«: EU reguliert KI

11. Dezember 2023
KI, Künstliche Intelligenz
Quelle: iStock.com, Jolygon

Die Europäische Union hat sich auf die weltweit erste umfassende gesetzliche Regulierung von KI geeinigt. Der AI Act klassifiziert KI-Anwendungen basierend auf ihrem Risikopotenzial. Das wird weitreichende Auswirkungen für die betroffenen Unternehmen haben – aber auch unseren Umgang mit KI im Allgemeinen prägen.

Kommissionspräsidentin Ursula von der Leyen bezeichnete die Einigung als »historisch«. Laut Digitalkommissar Thierry Breton handelt es sich um »die Startrampe für europäische Start-ups und Forscher, um das globale KI-Wettrennen anzuführen«. Kritische Stimmen hingegen sehen die Verordnung als Innovationsbremse.

Risikobasierter Ansatz

Der AI ACT war bereits im April 2021 von der EU-Kommission vorgeschlagen worden und verfolgt einen risikobasierten Ansatz. Das bedeutet, dass die KI-Anwendungen in Gruppen eingeteilt werden: Je  höher die möglichen Gefahren einer Anwendung, desto höher die Anforderungen nach dem AI Act an deren Anbieter.

Keine Emotionserkennung am Arbeitsplatz

Systeme, mit denen »unannehmbare Risiken« verbunden sind, verbietet die Verordnung komplett. Das ist beispielsweise der Fall, wenn diese das Sozialverhalten von Menschen bewerten sollen – wie beim aus China bekannten »Social Scoring«. Für Betriebsräte interessant: Verboten ist auch die Emotionserkennung am Arbeitsplatz.

Was gilt für KI in Personalmanagementsystemen?

Personalmanagementsysteme (wie z. B. Workday und SAP SuccessFactors) werden in den meisten Betrieben eingesetzt, etwa zur Optimierung von Bewerbungs- und Auswahlverfahren. Sie enthalten in der Regel KI-Elemente. KI-Elemente im Bereich des Recruiting stuft der AI Act als »hochriskant« ein. Sie unterliegen damit strengen Vorgaben u.a. zur Datenbasis und Dokumentation. Gefordert wird zudem eine menschliche Kontrolle des Systems und besondere Vorkehrungen bezüglich der Sicherheit.

Was gilt für Basismodelle wie GPT-4?

Ein Streitpunkt in den Verhandlungen waren die großen KI-Basistechnologien, wie etwa GPT-4 von OpenAI, Gemini von Google oder Llama 2 von Meta. Der Grund: Die nationalen Regierungen befürchteten, dass junge KI-Startups wie das deutsche Aleph Alpha und das Pariser Mistral AI durch strenge Regeln und den damit verbundenen hohen Aufwand ausgebremst würden. Das EU-Parlament wollte auch die zugrundeliegende Basistechnik regeln und hat sich damit weitgehend durchgesetzt.  

Technische Dokumentation der Basismodelle

Firmen, die KI-Basismodelle entwickeln, müssen künftig eine Dokumentation über das Trainings- und Testverfahren erstellen und nachweisen, dass sie das europäische Urheberrecht einhalten. Für »große Anbieter« sollen zusätzliche, besonders strikte Anforderungen gelten. Außerdem ist für durch KI erstellte Produkte ein Wasserzeichen vorgesehen.

Was, wenn Firmen sich nicht an die Vorgaben halten?

Die KI-Verordnung sieht im Falle des Verstoßes Bußgelder vor, die bis zu 35 Millionen Euro oder 7 Prozent des Jahresumsatzes des Unternehmens betragen können – maßgeblich ist dabei die höhere Summe. Die genaue Höhe richtet sich nach der Art des Verstoßes.

Ab wann gilt die die KI-Verordnung?

Noch ist die KI-Verordnung gar nicht »richtig« fertig, auch wenn nun eine politische Einigung erzielt wurde. Technische Details des Textes werden in den kommenden Wochen ausgehandelt und müssen dann vom europäischen Parlament und vom europäischen Rat gebilligt werden. 20 Tage nach Veröffentlichung tritt die Verordnung dann in Kraft. Weite Teile der Verordnung sollen erst 2 Jahre nach diesem Zeitpunkt angewendet werden. Die Verordnung wird – wie die DSGVO – ohne Umwandlung in nationales Recht in allen Mitgliedsstaaten der EU unmittelbar gelten.  

© www.bund-verlag.de (ct)

Quelle: Pressemitteilung der Europäischen Kommission vom 9.12.2023. 

Newsletter 2024 viertel - Anzeige -

Das könnte Sie auch interessieren