Es wird geschätzt, dass mehr als die Hälfte aller Teenager in den USA regelmäßig Begleit-Chatbots nutzen, die auf großen Sprachmodellen und generativer künstlicher Intelligenz (KI) basieren. Die Programme wie Character.AI, Replika und Kindroid sollen nach Angaben der Unternehmen, die sie herstellen, Kameradschaft bieten. Doch eine aktuelle Studie der Drexel University legt nahe, dass Jugendliche besorgt sind, dass diese Bindungen ungesund werden und ihr Offline-Leben beeinträchtigen.
Die Studie, die auf der Konferenz der Association of Computing Machinery zu Human Factors in Computing im April vorgestellt wird, untersuchte eine Stichprobe von mehr als 300 Reddit-Beiträgen von Benutzern, die sich als 13 bis 17 Jahre alt identifizierten und ausdrücklich über ihre Abhängigkeit und übermäßige Abhängigkeit von Character.AI gepostet hatten. Es stellte sich heraus, dass Jugendliche in vielen Fällen damit begannen, die Technologie zur emotionalen und psychologischen Unterstützung oder Unterhaltung zu nutzen, sich ihre Nutzung jedoch zu Abhängigkeit und sogar zu Suchtmustern entwickelte. Einige berichteten, dass ihr übermäßiger Gebrauch den Schlaf störte, akademische Schwierigkeiten und angespannte Beziehungen verursachte.
„Diese Studie liefert eine der ersten auf Jugendliche ausgerichteten Berichte über die übermäßige Abhängigkeit von KI-Begleitern“, sagte Afsaneh Razi, PhD, Assistenzprofessorin am Drexel College of Computing & Informatics, deren ETHOS-Labor, das untersucht, wie sich die Interaktionen von Menschen mit Computer- und KI-Systemen auf ihr Sozialverhalten, Wohlbefinden und Sicherheit auswirken, die Forschung leitete. „Es zeigt, wie sich diese Interaktionen auf das Leben junger Benutzer auswirken, und stellt einen Rahmen für das Chatbot-Design vor, der gesunde Interaktionen fördert.“
Etwa ein Viertel der Beiträge deuteten darauf hin, dass die Teenager Character.AI für irgendeine Art von emotionaler oder psychologischer Unterstützung nutzten, die von der Bewältigung von Stress über Einsamkeit und Isolation bis hin zur Suche nach Rat bei psychischen Problemen reichte. Etwas mehr als 5 % gaben an, es für Brainstorming, kreative Aktivitäten oder zur Unterhaltung zu nutzen.
Und während die Beiträge darauf hindeuten, dass diese Interaktionen zunächst harmlos oder sogar hilfreich waren, entwickelten sie sich zu einer stärkeren Bindung, die genauso schwer zu lösen war wie eine Sucht, so die Forscher.
Durch die Zuordnung der Erfahrungen von Teenagern zu den bekannten Komponenten der Verhaltenssucht konnten wir in ihren Beiträgen klare Muster wie Konflikte, Rückzug und Rückfälle erkennen, was darauf hindeutet, dass es sich dabei um mehr als nur häufigen oder enthusiastischen Gebrauch handelt. Viele Teenager beschrieben, dass sie mit etwas begonnen haben, das sich hilfreich oder harmlos anfühlte, aber mit der Zeit zu etwas wurde, von dem sie sich nur schwer lösen konnten, selbst wenn sie es wollten.“
Matt Namvarpour, Doktorand in der Abteilung für Informationswissenschaft und ETHOS-Labor, Erstautor der Forschung
In den 318 Beiträgen, die sie analysierten, fanden die Forscher Hinweise auf alle sechs Komponenten, die mit Verhaltenssucht verbunden sind:
- Konflikt –– konkurrierende Wünsche, weiterhin mit dem Chatbot zu interagieren, haben aber ein schlechtes Gewissen wegen der übermäßigen Nutzung.
- Salienz – eine sich vertiefende emotionale Bindung zu den Bots anstelle von Menschen verspüren.
- Rückzug – Sich traurig, ängstlich oder unvollständig fühlen, wenn man nicht mit den Bots interagiert.
- Toleranz – Entwicklung eines Musters zunehmender Nutzung und der Notwendigkeit, die Bots weiterhin häufiger zu nutzen, um sich zufrieden oder emotional geerdet zu fühlen.
- Rückfall – Versuch, damit aufzuhören, nur um Tage oder Wochen später wieder mit der Nutzung des Bots fortzufahren.
- Stimmungsmodifikation – Wenden Sie sich in Momenten von Stress oder Einsamkeit an die Bots, um ihre Stimmung zu verbessern oder vorübergehende Erleichterung zu finden.
„Was dies besonders schwierig macht, ist, dass Chatbots interaktiv und emotional reagieren, sodass sich die Erfahrung eher wie eine Beziehung als wie ein Werkzeug anfühlen kann“, sagte Namvarpour. „Aus diesem Grund bedeutet das Aufgeben nicht nur das Aufgeben einer Gewohnheit, es kann sich auch so anfühlen, als würde man sich von etwas Bedeutsamem distanzieren, was es schwieriger macht, übermäßiges Vertrauen zu erkennen und anzugehen.“
Während die Abhängigkeit von Technologie, beispielsweise Videospielen, untersucht und als psychologische Erkrankung identifiziert wurde, macht die einzigartige Interaktivität von KI-Chatbots Benutzer laut den Forschern besonders anfällig für die Bildung problematischer Bindungen. Aus diesem Grund empfehlen sie, beim Design besondere Sorgfalt walten zu lassen, um die Benutzer zu schützen.
„Personalisierung, Multimodalität und Gedächtnis heben KI-Begleiter von früheren Technologien ab und erschweren die Trennung zwischen übermäßigem Vertrauen und authentischen Beziehungen“, schreiben die Forscher. „Dies unterstreicht die Notwendigkeit weiterer Forschung zu den einzigartigen Merkmalen dieser Beziehungen und dazu, wie Herausforderungen, die für Companion-Chatbots spezifisch sind, angegangen werden sollten.“
Das Team bot einen Designrahmen an, um dieses Problem auszuräumen. Es konzentriert sich darauf, die Bedürfnisse von Chatbot-Benutzern zu verstehen, wie und warum sie Bindungen aufbauen können und wie die Bots trainiert werden können, diese Bindungen einzudämmen und gleichzeitig respektvoll und unterstützend zu sein. Sie empfehlen außerdem, dass die Programme den Benutzern einen einfachen und sauberen Ausstieg ermöglichen.
„Für Designer ist es wichtig, sicherzustellen, dass Chatbots Anleitungen bieten, die den Benutzern helfen, Vertrauen in ihre Fähigkeit aufzubauen, offline Beziehungen aufzubauen, als eine gesunde Möglichkeit, emotionale Unterstützung zu finden, ohne Hinweise zu verwenden, die sie dazu verleiten könnten, die Technologie zu vermenschlichen und Bindungen zu ihr zu entwickeln“, sagte Razi. „Unser Rahmen fordert die Designer auch dazu auf, eine Vielzahl von Ausstiegsmöglichkeiten bereitzustellen, damit Benutzer sich ganz einfach und zu ihren eigenen Bedingungen und ohne das Gefühl von Abruptheit oder Endgültigkeit vom Programm lösen können.“
Die Einbeziehung von Funktionen wie Nutzungsverfolgung, emotionalen Check-in-Aufforderungen und personalisierten Nutzungsbeschränkungen könnte ebenfalls wirksame Möglichkeiten sein, die Nutzung vorsichtig einzuschränken, schlugen die Forscher vor. Sie empfahlen außerdem, Beiträge von Benutzern und Fachleuten für psychische Gesundheit in den Designprozess einzubeziehen.
„Designer tragen nun die Verantwortung, Systeme mit Einfühlungsvermögen, Nuancen und Liebe zum Detail zu entwickeln, um Jugendliche nicht nur vor Schaden zu schützen, sondern ihnen auch dabei zu helfen, Widerstandsfähigkeit, Wachstum und mehr Erfüllung in ihrem Leben zu fördern“, schlussfolgerten sie.
Um diese Forschung zu erweitern, wies das Team auf die Untersuchung größerer Benutzergemeinschaften aus einem breiteren demografischen Spektrum hin, möglicherweise durch Umfragen oder Interviews, sowie auf Benutzer anderer Chatbots und von anderen Messaging-Plattformen als Reddit.
Quellen:
Namvarpour, M., et al. (2026). Understanding Teen Overreliance on AI Companion Chatbots Through Self-Reported Reddit Narratives. CHI ’26: Proceedings of the 2026 CHI Conference on Human Factors in Computing Systems. DOI: 10.1145/3772318.3790597. https://dl.acm.org/doi/10.1145/3772318.3790597