KI-Studie 2021: Sicherheit und Künstliche Intelligenz

In der Bevölkerung herrscht die Sorge vor Hackerangriffen und Manipulation von KI-Anwendungen oder fehlerhaft programmierten Systemen. Das ist ein Ergebnis der aktuellen KI-Studie des TÜV-Verbands.

© Nordpunkt Designagentur

Automatisierte Fahrzeuge, neue Methoden für die Krebserkennung, Gesichtserkennung im öffentlichen Raum oder Software-Unterstützung bei der Personalauswahl: Künstliche Intelligenz (KI) kommt zunehmend in sicherheitskritischen Bereichen zum Einsatz oder gefährdet bei ihrer Nutzung bürgerliche Grundrechte. Vier von fünf Bundesbürger:innen (80 Prozent) fordern daher ein von unabhängigen Stellen vergebenes Prüfzeichen für Künstliche Intelligenz, um das Vertrauen in die Technologie zu stärken. 79 Prozent wünschen sich, dass Produkte und Anwendungen mit Künstlicher Intelligenz grundsätzlich gekennzeichnet werden. Und 71 Prozent der Befragten fordern eine umfassende gesetzliche Regulierung der Technologie. Das sind Kernergebnisse einer repräsentativen Studie im Auftrag des TÜV-Verbands, für die 1.000 Personen ab 16 Jahren befragt wurden. „Immer dann, wenn Produkte oder Anwendungen mit Künstlicher Intelligenz die Gesundheit von Menschen oder ihre elementaren Grundrechte wie Privatsphäre oder Gleichbehandlung gefährden, brauchen wir eine gesetzliche Regelung“, sagte Dr. Dirk Stenkamp, Präsident des TÜV-Verbands, bei der Vorstellung der Studienergebnisse. „Die Gesetzgebung für eine europäische KI-Verordnung muss jetzt zügig vorangetrieben und Verbesserungen eingearbeitet werden.“ So sollten KI-Anwendungen mit hohem Risiko grundsätzlich von unabhängigen Stellen geprüft werden, um deren Sicherheit gewährleisten zu können.  

Laut den Ergebnissen der Umfrage kennen 95 Prozent der Befragten den Begriff Künstliche Intelligenz. Immerhin fast jede:r zweite (48 Prozent) kann die wichtigsten Eigenschaften dieser komplexen Technologie gut oder sehr gut erklären. Im Vergleich zur vorangegangenen Studie des TÜV-Verbands im Jahr 2019 ist das ein Anstieg um 13 Prozentpunkte. Weitere 42 Prozent könnten eine grobe Erklärung abgeben (minus 5 Punkte) und nur 11 Prozent wissen nur sehr wenig oder gar nichts über KI (minus 6 Punkte). „Das Wissen um Künstliche Intelligenz verbessert sich mit der zunehmenden Verbreitung der Technologie“, sagte Stenkamp. Parallel dazu verbessere sich auch die Einstellung der Bürger:innen. 51 Prozent der Befragten empfinden etwas Positives, wenn sie an KI denken, 5 Punkte mehr als vor zwei Jahren. Dagegen empfinden nur noch 14 Prozent etwas Negatives, vor zwei Jahren lag dieser Wert mit 28 Prozent noch doppelt so hoch. 35 Prozent sind neutral eingestellt (plus 14 Punkte). Dabei gleichen sich die Einstellungen von Frauen und Männern an. 45 Prozent der befragten Frauen empfinden etwas Positives, nach 35 Prozent im Jahr 2019. Der Anteil der positiv eingestellten Männer ist mit 56 Prozent konstant geblieben (2019: 57 Prozent). Und nur noch 15 Prozent der Frauen empfinden etwas Negatives, nach 35 Prozent 2019. Damit liegen sie fast gleichauf mit den Männern, unter denen 13 Prozent etwas Negatives empfinden (2019: 21 Prozent).

Sehr positiv bewertet eine breite Mehrheit der Verbraucher:innen die Weiterentwicklung von Künstlicher Intelligenz in der Industrie (73 Prozent), in der Forschung (69 Prozent), im Gesundheitsbereich (66 Prozent) und in der Bildung (62 Prozent). Vier von fünf aller Befragten (80 Prozent) erhoffen sich durch den Einsatz Künstlicher Intelligenz auch persönlich Vorteile oder Erleichterungen in ihrem Alltag: 53 Prozent rechnen mit Zeitersparnissen, 48 Prozent mit Energieeinsparungen und 43 Prozent mit Entlastungen von Routinetätigkeiten. Gleichzeitig haben die Befragten viele Sorgen und Vorbehalte im Zusammenhang mit dem Einsatz von KI. An erster Stelle steht mit einem Anteil von 66 Prozent die Angst vor Hackerangriffen, die mit Hilfe von KI automatisiert oder personalisiert werden. Es folgen die Sorge vor Massenüberwachung (62 Prozent) oder einem Missbrauch persönlicher Daten (61 Prozent). Bei 61 Prozent besteht die Sorge, dass KI genutzt wird, um Menschen zu manipulieren. Die gezielte Verbreitung von Fakenews und Filterblaseneffekte in sozialen Netzwerken sind dafür Beispiele. „Die Befürchtung, dass KI-Systeme bei sicherheitskritischen Anwendungen Fehler macht, ist mit 60 Prozent ebenfalls weit verbreitet“, sagte Stenkamp. Fehlerhafte KI-Systeme könnten beispielsweise beim automatisierten Fahren verheerende Folgen haben. Weitere Befürchtungen betreffen Arbeitsplatzverluste durch den Einsatz von KI-Systemen (57 Prozent) und die Diskriminierung von Menschen, beispielsweise bei der Personalauswahl oder bei der automatisierten Vergabe von Krediten (41 Prozent). Sehr deutlich wird die Skepsis beim autonomen Fahren. Erst 39 Prozent würden in einem vollautomatisierten Fahrzeug mitfahren. 33 Prozent lehnen das ab und weitere 29 Prozent sind unsicher und antworten mit „weiß nicht“.

Um die Sicherheit von KI-Anwendungen zu gewährleisten, wünschen sich 81 Prozent der Befragten unabhängige Prüfungen, bevor die Produkte auf den Markt kommen. 79 Prozent fordern Sicherheitsprüfungen von KI-Produkten auch dann, wenn diese bereits auf dem Markt sind. „Vor allem bei sicherheitskritischen KI-Anwendungen sind unabhängige Prüfungen im laufenden Betrieb notwendig, zum Beispiel von Fahrzeugen oder Geräten der Medizintechnik“, betonte Stenkamp. Auch KI-gestützte Produkte könnten mit der Zeit „verschleißen“ bzw. in ihrer Wirkung beeinträchtigt sein, beispielsweise Assistenzsysteme in Autos. Darüber hinaus verändern KI-Produkte ihre Eigenschaften, wenn mit einem Software-Update neue Funktionen aufgespielt werden. Dann sei eine Neubewertung der Sicherheit notwendig.

Regulierungsentwurf der EU-Kommission nachbessern

In dem im April vorgelegten Regulierungsentwurf der EU-Kommission sind für viele weniger sicherheitskritische KI-Anwendungen keine externen Prüfungen vorgesehen. „Ein risikobasierter Ansatz bei der KI-Regulierung ist sinnvoll“, sagte Stenkamp. Ein E-Mail-Spam-Filter müsse anders behandelt werden als ein Fahrzeug oder ein Medizinprodukt. Allerdings besteht hier aus Sicht des TÜV-Verbands noch Nachbesserungsbedarf. „Bisher fehlt eine klare Herleitung und Definition der Risikoklassen, was zu rechtlichen Unsicherheiten führen kann“, sagte Stenkamp. Die Zuordnung zu den vier Risikoklassen sollte nicht durch einen festen Technologiekatalog geregelt werden. Stattdessen sollten Schutzziele wie Gefahr für Leib und Leben und die Einschränkung von Grundrechten die Maxime für jede KI-Anwendung sein. Stenkamp: „KI-Systeme, von denen ein hohes Risiko ausgeht, sollten grundsätzlich von unabhängigen Dritten geprüft werden.“

Nach Ansicht des TÜV-Verbands sollte die EU-Kommission bei der KI-Gesetzgebung aus den Erfahrungen der Datenschutz-Grundverordnung lernen. Deren Anwendung erweist sich in der Praxis häufig als zu kompliziert. „Wir dürfen nicht nur eine KI-Regulierung entwickeln, sondern müssen gleichzeitig deren praktische Umsetzung vorantreiben“, sagte Stenkamp. „Für die Prüfung und Zertifizierung von KI-Anwendungen sind neue Methoden und Standards notwendig.“ Als ein geeignetes Instrument für diesen Prozess schlägt der TÜV-Verband die Einrichtung interdisziplinärer „AI Quality & Testing Hubs“ vor. Hier könnten KI-Anbieter, Unternehmen, Forschungseinrichtungen und Prüforganisationen gemeinsam an Normen und Standards für Künstliche Intelligenz arbeiten und neue Prüfverfahren entwickeln. Dafür sei eine politische Förderung der neuen Bundesregierung notwendig.  

Methodik-Hinweis: Grundlage der Studienergebnisse ist eine repräsentative Umfrage des Marktforschungsunternehmens Statista im Auftrag des TÜV-Verbands unter 1.000 Personen ab 16 Jahren in Deutschland. Die Befragung ist repräsentativ für die Gesamtbevölkerung. Sie wurde im August 2021 durchgeführt. 

Die Downloads

Studienbericht

Präsentation

Grafik