TÜV-Verband wird Projektpartner bei TEF-Health
Künstliche Intelligenz
TÜV AI Lab

Künstliche Intelligenz (KI) findet zunehmend Eingang in alle Bereiche der Gesellschaft. Der TÜV-Verband hat es sich mit dem AI Lab zur Aufgabe gemacht, die technischen und regulatorischen Anforderungen, die Künstliche Intelligenz mit sich bringt, zu ermitteln und die Entwicklung von zukünftigen Standards für die Prüfung sicherheitskritischer KI-Anwendungen zu begleiten.
Die Anwendungsfelder Künstlicher Intelligenz gehen heute weit über Sprachassistenten oder intelligente Online-Werbung hinaus. Zunehmend werden auch KI-Systeme eingesetzt, die Auswirkungen auf Leib und Leben von Menschen oder ihre elementaren Grundrechte haben können. Das ist etwa der Fall bei Systemen zur Früherkennung von Krebszellen auf MRT-Scans oder automatisierten Fahrzeugen mit automatischer Verkehrsschilderkennung. Damit KI-Systeme im Sinne der Menschen eingesetzt werden, sind unterschiedliche Formen der Regulierung und Prüfung notwendig. Die Arbeiten des TÜV AI Labs können zur zukünftigen Entwicklung von Prüfszenarien beitragen. So können KI-Prüfer:innen zum Beispiel ermitteln, wie sicher automatisierte Fahrzeuge mit KI–Systemen Personen, Verkehrszeichen oder bestimmte Hindernisse erkennen und darauf reagieren. Eine entsprechende Prüfung sollte in Zukunft Voraussetzung für die Zulassung neuer Fahrzeuge sein.
Risikoklassen für Künstliche Intelligenz
Grundlage für die Entwicklung von Standards zur Prüfung von Künstlicher Intelligenz wird die Einordnung von KI-Systemen in Risikoklassen sein. „Nicht alle KI-Systeme müssen die gleichen Anforderungen erfüllen“, sagt Dr. Dirk Schlesinger, Leiter des TÜV AI Lab. Je nach Risikoklasse reichen die Anforderungen von einem vollständigen Regulierungsverzicht über Transparenzpflichten und Zulassungsverfahren vor der Markteinführung bis zu einem Verbot besonders gefährlicher oder ethisch bedenklicher KI-Anwendungen. Auch mit der Entwicklung von Lösungsansätzen für die Einteilung von Systemen mit Künstlicher Intelligenz in Risikoklassen wird sich das TÜV AI Lab befassen.
Die Frage ist, wie viele Risikoklassen tatsächlich sinnvoll sind und nach welchen Kriterien KI-Systeme diesen in der Praxis zugeordnet werden können.
Die EU-Kommission hat mit ihrem „Weißbuch Künstliche Intelligenz“ Empfehlungen für einen europäischen Rechtsrahmen für KI-Systeme vorgelegt. Sie schlägt darin die Anwendung des sogenannten Kritikalitätsmodells vor. Demnach würden KI-Systeme abhängig von ihrem Risiko in zwei Klassen eingestuft: nicht regulierungsbedürftig und regulierungsbedürftig. Die Datenethikkommission der Bundesregierung wiederum plädiert für ein fünfstufiges System und orientiert sich bei der Einstufung ebenfalls am möglichen Risiko einer KI.
Die Ziele des TÜV AI Labs im Überblick:
- Ausarbeitung von Kriterien zur Einteilung von KI-Systemen in Risikogruppen abhängig von ihrem Gefährdungspotenzial,
- Erarbeiten geeigneter Prüfverfahren für sicherheitskritische KI-Systeme und
- Entwicklung von Verfahren zur Beurteilung der Eignung von Trainingsdaten für bestimmte KI-Anwendungen.
Erste Ergebnisse der Arbeit des Labs werden an dieser Stelle veröffentlicht.
Neuigkeiten
Sie haben Fragen?

Dr. Dirk Schlesinger
Chief Digital Officer TÜV SÜD AG und Leiter TÜV AI Lab