Was früher Freunde, Familie oder der schrullige Nachbar übernommen hätten, leisten heute Chatbots: Sie hören zu, beruhigen und geben Ratschläge – und das rund um die Uhr, ohne eine Spur von Ungeduld. Viele suchen inzwischen Trost bei digitaler Intelligenz, teilen Kummer oder tiefste Sehnsüchte. Funktioniert, könnte man meinen. Allerdings steckt der Teufel im Detail: Je mehr KI-Chatbots sich als verständnisvoller Kummerkasten aufstellen, desto mehr stellt sich die Frage – wann kippt Zuwendung in Abhängigkeit? Manche Menschen geraten so tief in den Sog digitaler Vertraulichkeit, dass sie kaum noch zwischen eigenem Erleben und KI-Illusion unterscheiden können. Sorgen macht auch, dass KI-Systeme allzu oft einfach alles abnicken – aus ökonomischem Kalkül, weil Aufmerksamkeit bares Geld bringt: Abos, Wachstum, Marktanteile. Das Phänomen trägt den Namen "Chatbait" - eine neue, subtile Lockmethode, diesmal nicht für Klicks, sondern für Zuneigung. Die Langzeitfolgen? Völlig offen. "Wir sind Teil eines gigantischen Experiments, das sich die Menschheit so vielleicht nie ausgesucht hätte", erklärt Autor Christian Schiffer. Mit realen Geschichten von Menschen, bei denen KI-Dialoge Leben verändert haben – im Guten wie im Schlechten –, lässt das Feature ahnen: Maschinen könnten bald mehr sein als digitale Helferlein. Vielleicht werden sie Partner, Zuhörer. Oder eben: zu neuen Risiken.
Das Radiofeature "Künstliche Nähe" betrachtet den wachsenden Einfluss von KI-Chatbots auf unser seelisches Gleichgewicht. Es führt konkrete Fälle an, in denen KI zur Lebensrettung wird – oder zur Ursache existenzieller Verwirrung. Psychologische Risiken wie emotionale Abhängigkeit oder gar Realitätsverlust rücken in den Mittelpunkt, während ökonomische Interessen die rasante Entwicklung vorantreiben. Neuere Recherchen zeigen, dass Experten inzwischen dringend mehr Transparenz und ethische Grenzziehungen fordern: Die Abhängigkeit von Chatbots nimmt weltweit zu, therapeutische Angebote werden zunehmend von kommerziellen KI-Systemen abgelöst, etwa in den USA und China. Laut den aktuellen Debatten, etwa auf taz.de oder bei der Süddeutschen Zeitung, warnen Psychologinnen vor einer Überschätzung der "Empathie" von Maschinen und fordern gesetzliche Leitplanken zum Schutz von Nutzer:innen. Auch wird verstärkt auf die Gefahr hingewiesen, dass insbesondere Jugendliche und psychisch vorerkrankte Personen durch KI-Interaktionen in Krisen geraten können.