Drei Jahre nach dem Launch von ChatGPT hat sich generative Künstliche Intelligenz (KI) fest im Alltag vieler Menschen verankert. Laut der aktuellen TÜV-ChatGPT-Studie 2025 nutzen bereits 65 Prozent der Bundesbürgerinnen und -bürger generative KI-Tools – ein deutlicher Anstieg gegenüber 2023. Besonders die jüngere Generation (91 Prozent der 16–29-Jährigen) setzt im Alltag regelmäßig auf Tools wie ChatGPT, Google Gemini oder DeepL.
Die Ergebnisse der Studie zeigen: ChatGPT bleibt das meistgenutzte KI-Werkzeug, doch Konkurrenz wie Google Gemini und Microsoft Copilot holen auf. Die beliebtesten Anwendungsfelder sind Informationsrecherche, Textgenerierung, kreative Ideenfindung und Übersetzungen.
Zugleich offenbart die Studie gravierende Sicherheitslücken im Umgang mit KI. Viele Nutzerinnen und Nutzer erkennen KI-generierte Inhalte nicht oder unterschätzen Gefahren durch Deepfakes, fehlerhafte Ergebnisse und Datenmissbrauch. So hat jede achte Person bereits persönliche Daten in KI-Systeme eingegeben. Und obwohl 50 Prozent der Befragten Sicherheitsbedenken äußern, fehlt in vielen Unternehmen eine klare Regelung für den KI-Einsatz. Der EU AI Act ist zudem nur 32 Prozent der Menschen bekannt.
Zentrale Studienergebnisse im Überblick
Nutzung und Verbreitung generativer Künstlicher Intelligenz
- 65 Prozent der Bevölkerung haben bereits generative KI ausprobiert oder nutzen sie aktiv (2023: 37 Prozent).
- 91 Prozent der 16–29-Jährigen nutzen KI – so viel wie keine andere Altersgruppe.
- 45 Prozent der Nutzer:innen verwenden KI mindestens wöchentlich, bei den Jüngeren sind es sogar 55 Prozent.
Tools und Plattformen
- ChatGPT: 85 Prozent
- Google Gemini: 33 Prozent
- Microsoft Copilot: 26 Prozent
- DeepL: 20 Prozent
Anwendungsbereiche und Motivation
- 72 Prozent nutzen KI zur Informationssuche, 43 Prozent für Textarbeiten, 38 Prozent für Ideenfindung, 34 Prozent für Übersetzungen.
- Hauptmotive: produktiver arbeiten (61 Prozent), lernen und weiterbilden (61 Prozent), Routineaufgaben erleichtern (54 Prozent).
Emotionaler Wert für User
- 80 Prozent nutzen generative KI als Werkzeug ohne weitere emotionale Bindung.
- 27 Prozent der User sehen KI als „Coach“.
- 6 Prozent nehmen sie sogar als „Freund“ wahr.
Fehlende Sicherheitskultur trotz großer Risiken
Die Studie zeigt eine deutliche Diskrepanz zwischen Nutzungsverbreitung und Sicherheitsbewusstsein:
- 13 Prozent haben bereits persönliche Daten wie Adressen oder Passwörter in KI-Systeme eingegeben.
- 50 Prozent äußern große Sorge vor Datenmissbrauch, aber konkrete Schutzmaßnahmen sind selten.
- In Unternehmen fehlt es an klaren Regeln: 54 Prozent der Beschäftigten berichten von keinen Vorgaben oder Verboten.
KI-Inhalte werden schwerer erkennbar – und gefährden Vertrauen
- 51 Prozent haben KI-generierte Inhalte für echt gehalten, insbesondere manipulierte Videos (Deepfakes).
- 91 Prozent sehen eine wachsende Schwierigkeit, echte und manipulierte Inhalte zu unterscheiden.
- 83 Prozent befürchten eine stärkere Verbreitung von Desinformation.
- 73 Prozent sehen eine Beeinflussung der politischen Meinungsbildung, 49 Prozent eine Gefahr für die Demokratie.
Orientierungslosigkeit beim Thema Regulierung
- Nur 32 Prozent der Bevölkerung haben schon vom EU AI Act gehört.
- Gleichzeitig sprechen sich 83 Prozent für eine Regulierung von KI aus.
- 89 Prozent fordern eine klare Kennzeichnung von KI-Inhalten, 80 Prozent befürworten verpflichtende Prüfungen durch unabhängige Stellen wie den TÜV.



