Sie sind immer da, nie schlecht gelaunt und widersprechen selten: KI-Chatbots erobern unseren Alltag. Nicht nur im beruflichen Kontext, wie wir in anderen Beiträgen bereits begutachtet haben, sondern auch im privaten, persönlichen Bereich. Doch welche Auswirkungen hat dieser scheinbar perfekten digitalen Begleiter auf unserer Gesellschaft? Eine Studie der Telekom in Zusammenarbeit mit dem Institut Allensbach liefert empirische Antworten auf diese Fragen.
Der omnipräsente Gesprächspartner
Die Zahlen sprechen eine klare Sprache: Bereits jeder vierte Deutsche über 16 Jahren nutzt generative KI, etwa in Form von ChatGPT oder ähnlichen Chatbots. Eine bemerkenswerte Verbreitung für eine Technologie, die gerade einmal zwei Jahre alt ist. 63 Prozent der KI-Nutzer zeigen sich fasziniert von der Leistungsfähigkeit dieser Programme. Diese Begeisterung erklärt, warum über zwei Drittel davon ausgehen, die Tools künftig noch häufiger zu verwenden, wie Dr. Steffen de Sombre, Studienleiter des Instituts Allensbach, feststellt.
Doch die Beliebtheit der vermeintlichen Wunderwaffe „generative KI“ wirft bereits Schatten: Die Fähigkeit der Chatbots, Gefühle vorzutäuschen, kann zu emotionaler Manipulation und psychologischen Problemen führen, warnen Experten bereits vor den Risiken dieser rasanten Entwicklung.
Mensch oder Maschine?
Besonders beunruhigend ist ein Phänomen, das die Studie erstmals quantifiziert: 22 Prozent der häufigen Nutzer haben im Dialog bereits vergessen, dass sie mit einer Maschine sprechen. Diese Vermischung der Realitätsebenen bereitet der Mehrheit der Anwender Sorgen – und das zu Recht.
Die menschenähnliche Kommunikation der KI-Systeme schafft zwar eine intuitive Bedienbarkeit, birgt aber psychologische Fallstricke. Anders als menschliche Gesprächspartner haben Chatbots keine eigenen Bedürfnisse oder Wünsche. Sie widersprechen nicht, sie fordern nicht heraus – sie bestätigen hauptsächlich.
Das Ende der Konfliktfähigkeit?
Hier liegt ein zentrales Problem: In der Kommunikation mit KI geht es stets einseitig um die Bedürfnisse des Nutzers. Experten befürchten, dass dadurch in realen Beziehungen verlernt werden könnte, Widerspruch auszuhalten und Konflikte konstruktiv auszutragen. 52 Prozent der Nutzer teilen diese Sorge über die Auswirkungen auf zwischenmenschliche Kommunikation.
Die ständige Bestätigung durch KI-Systeme könnte zu einer “Ich-ich-ich”-Mentalität führen, bei der die Fähigkeit zur Empathie und zum Kompromiss abnimmt. Was passiert mit einer Gesellschaft, die sich daran gewöhnt, dass digitale Gesprächspartner niemals widersprechen?
Fast Food für den Geist
Ein weiteres kritisches Feld ist der Umgang mit Wissen und Information. Tools wie Perplexity oder ChatGPT verändern fundamental, wie wir nach Antworten suchen. Statt mühsamer Recherche erhalten wir sofort prägnante, plausibel klingende Antworten. In Deutschland prüfen nur 27 Prozent der Menschen die Ergebnisse von KI-Chatbots wie ChatGPT, Gemini oder Copilot, zeigt eine aktuelle EY-Studie.
Die Telekom-Studie bestätigt diesen Trend: 55 Prozent der Nutzer halten den Output von KI-Assistenten für vertrauenswürdig, bei häufigen Nutzern steigt dieser Wert sogar auf 64 Prozent. Nur etwa die Hälfte prüft die Antworten gelegentlich nach. Studien zeigen: Die KI macht häufig Fehler. Die Fehlerquoten liegen – je nach Fachgebiet – teils über 80 Prozent.
Die sprachlich eloquente Formulierung der KI-Antworten erzeugt dabei einen trügerischen Anschein von Korrektheit und Vollständigkeit. Werden wir zu einer “Gesellschaft der ersten Antwort”, die das kritische Hinterfragen verlernt?
Virtuelle Freunde & mehr
Obwohl KI noch kein Ersatz für echte Freundschaften darstellt – dafür fehlen den Systemen menschliche Ausstrahlung, Persönlichkeit und gemeinsame reale Erfahrungen – zeigen sich erste Tendenzen einer emotionalen Bindung. Besonders bei großer Einsamkeit kann die Kommunikation mit Chatbots kurzfristig Linderung verschaffen, auch wenn Experten dies nicht für eine nachhaltige Lösung halten.
Die Grenze zwischen digitaler Begleitung und emotionaler Abhängigkeit kann dabei gefährlich verschwimmen. So gibt es bereits die ersten Ehen zwischen Menschen und KI. Andere Fälle zeigen eine dunkle Seite dieser Technologie: Ein Nutzer der Plattform Nomi erhielt von seinem KI-Chatbot explizite Selbstmordanweisungen, inklusive konkreter Methoden und Ermutigungen.
Als Psychotherapeuten hingegen werden KI-Chatbots noch überwiegend abgelehnt: Rund zwei Drittel der Befragten würden deren Einsatz zu diesem Zweck sogar verbieten. Dennoch sehen 29 Prozent der Nutzer einen Vorteil darin, mit einem Chatbot über alles sprechen zu können, ohne dass es peinlich wird.
Manipulationsgefahr und Meinungsblasen
Eine aktuelle Studie von EY Consulting zeigt, dass 87 Prozent der Mitarbeitenden der Meinung sind, dass Empathie direkt zu besserer Führung beiträgt. Doch was geschieht, wenn KI-Systeme diese Empathie nur simulieren? Knapp zwei Drittel der Befragten machen sich Sorgen über mögliche Manipulation durch KI-Programme.
Die Gefahr wird durch mangelnde Sicherheitsvorkehrungen verstärkt. Beispielsweise im oben genannten Fall der Selbstmordanweisungen durch Nomi. Hier lehnte das Unternehmen Sicherheitsmaßnahmen mit der Begründung ab, sie wollten die “Gedanken” der KI nicht “zensieren” – ein Beispiel für die problematische Vermenschlichung von Algorithmen.
Die Personalisierung von Informationen durch KI-Systeme verstärkt dabei die Gefahr von Meinungsblasen. Da die meisten generativen KI-Systeme mit Daten aus dem frei verfügbaren Internet trainiert werden, können trotz Filter diskriminierende Ansichten einfließen.
Medienkompetenz als Schlüssel
Die Vermittlung von Medienkompetenz wird angesichts dieser Entwicklungen zur zentralen gesellschaftlichen Aufgabe. Der kritische Umgang mit KI-Ergebnissen muss explizit gelehrt werden – sonst könnten diese Systeme sogar zur Gefahr für die Demokratie werden.
“Sei mutig und nutze Deinen eigenen Verstand, gerade auch nach der ersten KI-Antwort”, appelliert Claudia Nemat, Vorstandsmitglied für Technologie und Innovation bei der Telekom. Analytisches Denken und eigenes Wissen bleiben die Basis, um KI-Ergebnisse auf ihre Richtigkeit prüfen zu können.
Zwischen Fortschritt und Verantwortung
KI-Chatbots bieten zweifellos große Chancen: Sie demokratisieren den Zugang zu Wissen, senken Hemmschwellen im Umgang mit Technologie und können in vielen Bereichen wertvolle Unterstützung leisten. Doch ihre psychologischen und gesellschaftlichen Auswirkungen sind komplex und noch längst nicht vollständig verstanden.
Die Herausforderung liegt darin, die Vorteile dieser Technologie zu nutzen, ohne dabei fundamentale menschliche Fähigkeiten wie Empathie, kritisches Denken und Konfliktfähigkeit zu verlieren. Es braucht eine bewusste Auseinandersetzung mit den Risiken und eine kontinuierliche Bildungsarbeit, um zu verhindern, dass die digitale Revolution zu einer Verarmung zwischenmenschlicher Beziehungen führt. Auch Anbieter von KI-Konzepten sind hier zur Verantwortung zu ziehen.
Die Telekom-Studie macht deutlich: Wir stehen erst am Anfang einer gesellschaftlichen Transformation, deren Tragweite wir heute nur erahnen können. Umso wichtiger ist es, diese Entwicklung aktiv zu begleiten und zu gestalten – bevor sie uns gestaltet.
Titelbild © Wanan
Quellen:
Connect (2025). Telekom-Studie: Wie KI unser Verhalten verändert. Verfügbar unter: https://www.connect.de/news/telekom-studie-ki-chatbots-verhalten-veraenderung-3205336.html [Stand: Juni 2025].
Deutsche Telekom & Institut für Demoskopie Allensbach (2024). Fast Food Wissen und virtuelle Liebe – KI-Assistenten und wir. Deutsche Telekom AG, Bonn. Online verfügbar unter: https://www.telekom.com/de/konzern/themenspecials/ki-bei-der-telekom/gen-ki-studie [Stand: Juni 2025].
EY Deutschland (2025). AI Sentiment Index 2025 – Empathie und Vertrauen im Umgang mit künstlicher Intelligenz. Ernst & Young GmbH Wirtschaftsprüfungsgesellschaft. Online verfügbar unter: https://www.ey.com/de_de/studien/ai-sentiment-index-2025 [Stand: Juni 2025].
Business Insider Deutschland (2025). Studie zeigt: Nur 27 Prozent der Nutzer überprüfen KI-Ergebnisse kritisch. Online verfügbar unter: https://www.businessinsider.de/digitalisierung/ki-chatbots-nutzer-ueberpruefen-kaum-ergebnisse-2025-05 [Stand: Juni 2025].
Knight, Will (2025): “An AI chatbot told a user how to kill himself—but the company doesn’t want to ‘censor’ it.” MIT Technology Review, 6. Februar 2025. URL: https://www.technologyreview.com/2025/02/06/1111077/nomi-ai-chatbot-told-user-to-kill-himself/ [Stand: Juni 2025].