Berlin, 20. April 2026 – Der TÜV-Verband hat eine zügige Umsetzung des EU AI Acts nach dem Vorschlag der EU-Kommission gefordert, um einen europaweit einheitlichen Rechtsrahmen für industrielle KI-Anwendungen zu schaffen. „Künstliche Intelligenz macht gerade den Sprung in die physische Welt von Maschinen, Robotik und Geräten“, sagt Dr. Joachim Bühler, Geschäftsführer des TÜV-Verbands, zum Start der Hannover Messe 2026. „KI ermöglicht immer flexiblere Roboter, die mit Menschen Hand in Hand arbeiten, automatisierte Qualitätskontrollen oder Simulationen mit digitalen Zwillingen.“ Die Grundlage dafür bilden die umfangreichen Datenbestände, die in der deutschen Fertigungsindustrie vorhanden sind. Bühler: „Deutsche Unternehmen haben die Chance, diesen Datenschatz zu heben und ihre Produktion auf das nächste Level zu heben. Das Ziel sind eine effizientere Fertigung und bessere Produkte.“ Voraussetzung dafür sind neben technischen und digitalen Kompetenzen die rechtlichen Rahmenbedingungen, um mögliche Risiken bewerten und eindämmen zu können. „Von physischen KI-Systemen gehen spezifische Gefahren aus, zum Beispiel, wenn Mensch und Maschine miteinander interagieren oder autonome Systeme Fehlentscheidungen treffen.“ Der europäische AI Act sieht daher bestimmte Sicherheitsanforderungen für Hochrisiko-KI-Systeme vor. „Dieser risikobasierte Ansatz soll für verschiedene Produktgruppen wie Maschinen, Medizinprodukte oder auch Spielzeug gelten“, betont Bühler. Darüber hinaus werden auf dieser Basis Industriestandards entwickelt, die beispielsweise die Qualität der Trainingsdaten, den Schutz vor systematischen Verzerrungen sowie die Cybersicherheit von KI-Systemen betreffen. Bühler: „Diese industriellen KI-Standards werden in Europa für den Weltmarkt entwickelt.“
Jahreslanges Regulierungsvakuum und unzureichendes Schutzniveau droht
Aktuell wird darüber diskutiert, den bereits beschlossenen AI Act im Rahmen des „Digital Omnibus“ wieder aufzuschnüren und zentrale Regelungen aus dem Gesetzespaket herauszulösen. Während längere Umsetzungsfristen und Entlastungen für den Mittelstand sinnvoll sind, warnt der TÜV-Verband davor, Hochrisiko-Produkte aus dem direkten Anwendungsbereich des AI Act zu streichen. KI-Produkte mit hohem Risiko sind laut AI Act unter anderem Maschinen, Medizinprodukte, KI-Steuerungen für Aufzüge, Seilbahnen oder auch Spielzeuge. Diese Produktgruppen sollen nach dem Willen der Befürworter eines solchen Sektor-Exits stattdessen über spezifische Einzelgesetze geregelt werden. Dabei macht es technologisch keinen Unterschied, ob zum Beispiel ein Computer Vision KI-System in einem Medizingerät oder in einer Fertigungsmaschine Anwendung findet. Da die technische Basis und die KI-spezifischen Risiken dieselben sind, müssen dafür auch dieselben Regeln gelten. „Mit einem Sektor-Exit würde der ursprüngliche Ansatz des AI Acts ausgehebelt, einheitliche Regeln für viele Produktgruppen zu schaffen. Die Festlegung von Sicherheitsanforderungen für risikoreiche KI-Anwendungen würde auf unbestimmte Zeit verschoben“, sagt Bühler. „Es droht ein jahrelanges Regulierungsvakuum und anschließend ein Flickenteppich unterschiedlicher Einzelregelungen.“ Zugleich müsse das im AI Act politisch verankert Schutzniveau für KI-Systeme vollständig erhalten bleiben. Bühler: „Eine Absenkung oder Aufweichung zentraler Sicherheitsanforderungen würde Vertrauen in KI untergraben und den europäischen Binnenmarkt schwächen.“
Aus Sicht des TÜV-Verbands würde eine sektorale Regulierung den Rechtsrahmen nicht vereinfachen, sondern weiter zersplittern. KI-Anforderungen müssten in zahlreiche Einzelregelwerke integriert werden – mit unterschiedlichen Standards, Verfahren und Fristen. Gleichzeitig entwickelt sich KI schneller, als sektorale Regulierung angepasst werden kann. „Das wäre kein Bürokratieabbau, sondern der Einstieg in einen regulatorischen Flickenteppich – mit mehr Aufwand, mehr Unsicherheit und höheren Belastungen für Unternehmen“, warnt Bühler. Darüber hinaus droht die Entwicklung einheitlicher Sicherheitsstandards für KI zum Erliegen zu kommen, da die beteiligten Unternehmen ihre Experten aus den entsprechenden Gremien abziehen würden. Bühler: „Europa würde die Chance verspielen, weltweit eine Führungsrolle bei der Entwicklung von KI-Standards zu übernehmen.“ In den Trilog-Verhandlungen seien nun EU-Kommission, Mitgliedstaaten und EU-Parlament gefordert, den horizontalen Ansatz des AI Acts zu sichern und klare Regeln für Hochrisiko-KI zu erhalten.



