Berlin, 26. März 2026 – Das Plenum des Europäischen Parlaments hat heute im Rahmen des „Digital-Omnibus“ für Änderungen an der KI-Verordnung (AI Act) gestimmt. Neben unstrittigen Verbesserungen wie längeren Umsetzungsfristen, Erleichterungen für KMU und einem Verbot so genannter „Nudifier“-Anwendungen enthält das Paket aus Sicht des TÜV-Verbands auch einige sehr kritische Regelungen. Zentrale Hochrisiko-Produktbereiche wie Medizinprodukte, Maschinen oder Spielzeuge sollen aus dem unmittelbaren Anwendungsbereich der KI-Verordnung herausgelöst werden. Stattdessen sollen entsprechende KI-Anforderungen in sektoralen Rechtsakten geregelt werden. „Mit diesem Vorgehen wird der ursprüngliche Ansatz des AI Act ausgehebelt, einheitliche Regelungen für zahlreiche Produktgruppen zu schaffen“, sagt Dr. Joachim Bühler, Geschäftsführer des TÜV-Verbands. „Stattdessen wird die Festlegung von Sicherheitsanforderungen für risikoreiche Produkte und Anwendungen mit Künstlicher Intelligenz auf den Sankt-Nimmerleins-Tag verschoben.“ Die Folge wäre ein Regulierungsvakuum in den kommenden fünf bis zehn Jahren und anschließend ein Flickenteppich von Einzelregelungen für die unterschiedlichen Sektoren. Bühler: „In den Trilog-Verhandlungen sind die Mitgliedsstaaten und die EU-Kommission gefordert, den horizontalen Ansatz des AI Acts zu erhalten und die Sicherheit für Hochrisiko-KI-Systeme zu gewährleisten.“
Sektorale Regelungen schaffen Flickenteppich
Zu KI-Systemen mit hohem Risiko gehören Anwendungen, bei denen Fehlfunktionen oder Fehlentscheidungen gravierende Auswirkungen auf Sicherheit, Gesundheit und die Grundrechte von Personen haben können, etwa in der Medizin, der Robotik, in Bewerbungsverfahren oder beim Zugang zu Dienstleistungen wie der Kreditvergabe. Bühler: „Gerade bei industriellen und verbrauchernahen Hochrisiko-KI-Systemen brauchen wir einheitliche Vorgaben für Robustheit, Datenqualität, Transparenz, Risikomanagement und menschliche Aufsicht, damit Sicherheit, Gesundheit und Grundrechte wirksam geschützt werden.“
Die vorgeschlagene sektorale Verlagerung würde den europäischen Rechtsrahmen für Hochrisiko-KI-Systeme aus Sicht des TÜV-Verbands nicht vereinfachen, sondern weiter zersplittern. „KI-Anforderungen müssten dann in zahlreiche sektorale Richtlinien und Verordnungen eingearbeitet werden – mit unterschiedlichen Standards, Verfahren und Umsetzungsfristen“, sagt Bühler. „Das würde nicht zu mehr Klarheit führen, sondern neue Unsicherheiten schaffen.“
Hinzu kommt: KI entwickelt sich deutlich schneller, als sektorale Regulierung angepasst werden kann. Ein solcher Sektor-Exit würde die Regulierung von Hochrisiko-KI deshalb erheblich ausbremsen. KI-spezifische Vorgaben müssten mühsam in viele einzelne Regelwerke übernommen und dort fortlaufend nachgeschärft werden. Bühler: „Das wäre kein Bürokratieabbau, sondern der Einstieg in einen regulatorischen Flickenteppich – mit mehr Aufwand, mehr Unsicherheit und langfristig höheren Belastungen für Unternehmen.“
Der TÜV-Verband hat bereits gemeinsam mit AlgorithmWatch, AI Policy Lab, ALLAI, BSI - United Kingdom, DEKRA, ForHumanity, Open Knowledge Foundation, The Future Society und TÜV AI.Lab in einem offenen Brief an die Bundesregierung vor einem Sektor-Exit gewarnt. Den offenen Brief einer breiten Allianz aus Wirtschaft, Wissenschaft und Zivilgesellschaft gegen den Sektor-Exit im AI Act finden Sie hier.



