Sorge um den AI Act
Bildrechte: picture alliance/dpa | Philipp von Ditfurth
Audiobeitrag

Sorge um den AI Act

Audiobeitrag
> Netzwelt >

AI Act in Kraft: Was stimmt nicht mit Europas KI-Verordnung?

AI Act in Kraft: Was stimmt nicht mit Europas KI-Verordnung?

Seit August gilt der große AI Act der Europäischen Union. Und doch wissen viele Unternehmen immer noch nicht, ob er sie überhaupt betrifft. Vor allem die Regulierung von "Hochrisiko-KI" sorgt für Unsicherheit und Bürokratie.

Es sind wenig ermutigende Worte, die ein hochrangiger Jurist in Brüssel dieser Tage über den AI Act verliert: "Die Messlatte für die Regulierung ist vielleicht zu hoch gelegt worden", sagt Gabriele Mazzini der Wirtschaftszeitung Bloomberg. "Es gibt vermutlich Unternehmen in Europa, die sagen, dass der AI Act nicht genug Rechtssicherheit bietet, um weiterzumachen." Das, so die Sorge, könnte dazu führen, dass nur US-amerikanische Großkonzerne tatsächlich eine Chance im KI-Wettrennen haben können.

Das Besondere daran: Gabriele Mazzini ist nicht irgendwer. Er ist der Architekt und Chefautor des AI Act. Sogar einer der zentralen Köpfe hinter der großen europäischen KI-Verordnung hegt auf einmal Zweifel an ihr. Auch von anderer Seite wird die Kritik an dem AI Act immer lauter.

Lange geplant, seit Kurzem in Kraft

Jahrelang war der AI Act in der Mache, Ende 2023 wurde er von den Organen der Europäischen Union verabschiedet. Die weltweit erste umfassende Regulierung von Künstlicher Intelligenz gilt nun offiziell seit August 2024.

Wirklich durchgesetzt werden seine Auswirkungen aber erst über die nächsten zwei Jahre: Anfang 2025 sollen bestimmte KI-Verbindungen von "unakzeptablem Risiko" in der ganzen EU verboten werden, darunter Systeme wie "Social Scoring". Regulierung von "Allzweck-KI" wie ChatGPT soll im Sommer 2025 folgen, die von sogenannter "Hochrisiko-KI" im Sommer 2026.

Was ist Hochrisiko, was nicht?

Es ist vor allem die Frage der "Hochrisiko-KI", die Unternehmer in Deutschland umtreibt. Hochrisiko-KI bleibt in Europa erlaubt – aber unter strengen Auflagen. Auch müssen Berichtspflichten eingehalten werden. Nur: Was gilt als Hochrisiko-KI und was nicht? Obwohl der AI Act mittlerweile formal in Kraft getreten ist, ist diese Frage immer noch nicht umfassend geklärt.

"Für Bereiche wie Medizin und Kritische Infrastruktur macht es absolut Sinn, KI als Hochrisikotechnologie einzustufen", meint der KI-Experte und Investor Carsten Kraus, der letztes Jahr selbst in Brüssel eingeladen war, um mit Abgeordneten über den AI Act zu diskutieren. "Die Gefahr ist aber, dass diese Liste der Hochrisikoanwendungen jederzeit erweitert werden kann. Bereits sind jetzt bestimmte Anwendungen in HR und Weiterbildung hinzugefügt worden. Und die Erfahrung zeigt, dass solche Listen eigentlich immer länger werden und nie kürzer."

Befürworter des AI Acts betonten zur Verabschiedung letztes Jahr, der AI Act schaffe Rechtssicherheit und könne deshalb Innovation in der EU unterstützen. Doch Carsten Kraus kennt auch Gegenbeispiele – etwa im Bereich Personalentwicklung: "Es gibt eben auch Unternehmen, die sagen: Wir haben jetzt Angst davor, dass wir etwas mit KI einführen, und dann in einem Jahr dürfen wir das nicht mehr."

Hohe Kosten bei Hochrisiko-KI

Auch die Kostenfrage macht Unternehmen zu schaffen. Eine Untersuchung der Europäischen Kommission kam im Jahr 2021 zu dem Schluss, dass ein mittelständisches Unternehmen mit 50 Mitarbeitern für ein einziges Hochrisikoprodukt Compliance-Kosten von 159.000 bis zu 319.000 Euro aufbringen müsste. Auch ein Verstoß gegen den AI Act könnte teuer werden. Die EU sieht Strafen von bis zu 35 Millionen Euro oder sieben Prozent des globalen Umsatzes vor.

Und doch – trotz weitreichender Befugnisse und Strafen - können viele Unternehmen noch nicht einmal gesichert sagen, ob sie überhaupt betroffen sind. Eine Befragung des IT-Dienstleisters adesso unter 778 Entscheidern im deutschsprachigen Raum kam im Juli zu einem ernüchternden Ergebnis: Gerade einmal 32 Prozent der Befragten meinten, die Inhalte des AI Act zu kennen.

Angst, etwas falsch zu machen

In der Praxis berichten schon jetzt viele Unternehmen von Unsicherheit beim Thema KI-Einsatz: Darf man ChatGPT am Arbeitsplatz einsetzen? Welche Daten darf welches System verarbeiten? Viele Unternehmen haben ChatGPT & Co provisorisch gleich ganz aus ihren Häusern verbannt.

"Die Leute haben Angst, etwas falsch zu machen und machen dann lieber erst gar nichts", meint Unternehmer Carsten Kraus. Das könnte sehr teuer für die deutsche Wirtschaft werden, weil man sich Produktivität entgehen lässt. "

"Hier ist Bayern": Der BR24 Newsletter informiert Sie immer montags bis freitags zum Feierabend über das Wichtigste vom Tag auf einen Blick – kompakt und direkt in Ihrem privaten Postfach. Hier geht’s zur Anmeldung!