Neue Regeln für Künstliche Intelligenz
13. März 2024Warum wird Künstliche Intelligenz (KI) reguliert?
Die Auswirkungen, die die Verwendung von künstlicher Intelligenz in fast allen Lebensbereichen haben wird, sind enorm. Es gibt riesige Chancen für Wirtschaftsunternehmen, aber auch Gefahren für die Nutzer. Davor warnt selbst der Entwickler des Sprachmodells ChatGPT, Sam Altman. Manche Wissenschaftler sehen gar eine Bedrohung für die Menschheit, falls die Künstliche Intelligenz aggressive Anwendungen ohne menschliche Kontrolle entwickelt. Deshalb hat die EU als erste große Wirtschaftsregion der Welt eine umfassende Regulierung für KI entwickelt. Ziel ist eine nachvollziehbare, transparente, faire, sichere und umweltfreundliche KI, wie es im Gesetzesentwurf der EU-Kommission heißt. Gleichzeitig legt man in der EU wert darauf, dass auch Unternehmen von dem Gesetzespaket profitieren. "Das KI-Gesetz wird die Startrampe für EU-Unternehmen sein, um das globale Rennen um vertrauenswürdige KI anzuführen", erklärte der zuständige EU-Industriekommissar Thierry Breton am Mittwoch.
Welche KI-Anwendungen werden reguliert?
Die KI-Produkte werden in vier Risikoklassen eingeteilt: Nicht akzeptabel, hohes Risiko, generative KI und geringes Risiko. Entsprechend werden sie reguliert:
Verboten
Nicht akzeptabel sind Systeme, die Menschen zur Verhaltensänderung drängen, zum Beispiel Spielzeug, das Kinder zu gefährlichen Aktionen auffordert. Dazu gehören aber auch ferngesteuerte biometrische Erfassungssysteme, die in Echtzeit Gesichter erkennen. Verboten werden KI-Anwendungen, die Menschen anhand von bestimmten Merkmalen wie Geschlecht, Hautfarbe, sozialem Verhalten oder Herkunft in Klassen einteilen. Ausnahmen soll es für das Militär, Geheimdienste und Ermittlungsbehörden geben können.
Nur mit Zulassung
KI-Programme, die ein hohes Risiko bergen, werden vor ihrer Marktzulassung einer Prüfung unterzogen, um Auswirkungen auf Grundrechte zu verhindern. Diese riskanten Anwendungen sind zum Bespiel selbstfahrende Autos, Medizintechnik, Energieversorgung, Luftfahrt oder Spielzeug. Sie umfassen aber auch die Grenzüberwachung, Migrationskontrolle, Polizeiarbeit, Management von Personal in Unternehmen oder die Erfassung biometrischer Daten in Ausweisen. Programme, die bei der Auslegung und Anwendung des europäischen KI-Gesetzes helfen sollen, werden ebenfalls als hochriskant eingestuft und sollen reguliert werden.
Transparenz gefordert
Systeme, die neue Inhalte erzeugen und dazu Unmengen von Daten auswerten, sogenannte generative KI wie ChatGPT der Microsoft-Tochter OpenAI, bergen nach Meinung der EU-Gesetzgeber ein mittleres Risiko. Die Hersteller sollen verpflichtet werden, transparent zu machen, wie die KI arbeitet und wie sie verhindert, dass illegale Inhalte mit ihr erzeugt werden können. Es soll offengelegt werden, wie die KI trainiert wurde und welche urheberrechtlichen geschützten Daten verwendet wurden. Alle Inhalte, die zum Bespiel mit ChatGPT erzeugt werden, sollen gekennzeichnet werden müssen.
Nur geringe Auflagen
Geringes Risiko besteht nach den neuen Regeln der EU bei der Anwendung von Programmen, die Videos, Audios oder Fotos manipulieren und neu erzeugen. Dazu gehören auch die sogenannten "Deep Fakes", die in vielen sozialen Medien schon Gang und Gäbe sind. Service-Programme, die Kunden betreuen, gehören ebenfalls zu dieser Risikoklasse. Hier sind nur minimale Transparenzregeln vorgesehen. Den Nutzern muss bekannt gemacht werden, dass es sich um eine KI-Anwendung handelt und sie nicht mit Menschen kommunizieren. Sie können dann selbst entscheiden, ob sie das KI-Programm weiter nutzen oder nicht.
Wann kommt das neue Gesetz?
Neben der Abstimmung im Parlament muss das Gesetz noch formal von den Mitgliedstaaten gebilligt werden. Dies wird für dieses Frühjahr erwartet. Erst zwei Jahre nach dem offiziellen Inkrafttreten wird der Großteil des Gesetzes anwendbar. Einige Vorschriften haben kürzere Fristen. Die durch das Gesetz vorgesehenen Verbote sollen etwa bereits nach sechs Monaten anfangen zu greifen.
Wie fallen die Reaktionen aus?
Das Gesetz hat im EU-Parlament breite Zustimmung erfahren. 523 der insgesamt 705 EU-Parlamentarier haben am Ende für das Gesetz gestimmt. Dennoch fallen die Reaktionen auch innerhalb des Parlaments gemischt aus.
Während etwa der Grünen-Abgeordnete Sergey Lagodinksy das Gesetz als "Quantensprung in Richtung einer ethischen und nachhaltigen KI-Regulierung" bezeichnet, hat die Linken-Abgeordnete Cornelia Ernst auch Kritik. Unter anderem bedauert sie, dass sich das Parlament nicht mit einem generellen Verbot von Echtzeit-Gesichtserkennung hätte durchsetzen können. Dieses sei "durch eine lange Liste von Ausnahmen praktisch gekippt," erklärte Ernst in einer Presseerklärung.
Der CDU-Abgeordnete Axel Voss zweifelte an, "ob das KI-Gesetz wirklich geeignet ist, eine sich ständig weiterentwickelnde Technologie zu regulieren". Der Gesetzestext sei extrem vage und das Vollzugssystem zu komplex.
Auch in der Wirtschaft wird das Gesetz mit gemischten Gefühlen aufgenommen. Der Branchenverband der deutschen Informations- und Telekommunikationsbranche Bitkom erklärte bereits vor der Abstimmung, dass das Gesetz noch viele Fragen offen lasse und drängte auf eine rechtssichere und innovationsfreundliche Umsetzung in Deutschland. Insbesondere sollten die Chancen von KI in den Mittelpunkt gerückt werden, erklärte Bitkom-Präsident Ralf Wintergerst auf der Website des Verbandes.
Der Bundesverband der Verbraucherzentralen begrüßte das KI-Gesetz zwar grundsätzlich, sieht aber Schutzlücken für Verbraucher. So forderte die Vorständin Ramona Pop vom deutschen Gesetzgeben, bei der Kontrolle von KI-Systemen und der Durchsetzung der Regeln den Verbraucherinteressen höchste Priorität einzuräumen.
Der Artikel beruht auf einer früheren Version und wurde am 13. März aktualisiert.