Technik gegen Einsamkeit
Einsamkeit ist ein Phänomen, das immer mehr Menschen betrifft. Es ist ein gesellschaftliches Thema. „Einsamkeit wird oft unterschätzt. Es ist ein psychosoziales Phänomen, das seit vielen Jahren in der Forschung untersucht wird. Eine komplexe Erfahrung, die von verschiedenen Faktoren beeinflusst wird“, erzählt Primarius Dr. Martin Fink, Vorstand der Abteilung für Psychiatrie und Psychotherapie im Krankenhaus der Barmherzigen Brüder in Eisenstadt. „Einsamkeit zieht sich durch alle sozialen Schichten und Altersgruppen. Ob in der Jugend oder im Alter, berufstätig oder in Pension – Menschen in allen Lebensphasen fühlen sich einsam und vom gesellschaftlichen Leben ausgeschlossen.“
Manche Menschen verfügen über keine oder nur oberflächliche reale, soziale Beziehungen. Trotz Nähe fühlen sich Personen sehr einsam, wenn sie sich keiner Gruppe zugehörig fühlen und lediglich oberflächliche Beziehungen pflegen. Auf der Suche nach Freundschaft werden einsame Menschen immer häufiger in der digitalen Welt fündig: Von künstlicher Intelligenz (KI) gesteuerte Systeme können vermeintlich das Bedürfnis nach Nähe und Verständnis befriedigen.
DER CHATBOT, MEIN FREUND
Generative KI ist mittlerweile auch in unserem Privatleben angekommen. Sie ist für viele User:innen mehr als ein Onlinetool. Immer mehr Menschen teilen intime Details mit KI-Chatbots. Sie schreiben und reden mit ihnen, wenn sie Zuspruch suchen, oder bitten um Rat. Suchende Menschen haben das Gefühl, es interessiert sich jemand für sie. Doch warum glauben wir plötzlich, dass Maschinen unsere Gefühle verstehen? Kann künstliche Intelligenz tatsächlich menschliche Freundschaft ersetzen? Hier sind sich Expert:innen einig: Nein!
Das unterstreicht auch Primarius Fink: „Empathie ist eine zutiefst menschliche Eigenschaft. Kein Chatbot der Welt kann menschliche Interaktionen und damit verbundene Emotionen ersetzen. Im besten Fall kann künstliche Intelligenz Empathie und Emotionen sehr gut simulieren. Chatbots sind und bleiben nur vermenschlichte Computerprogramme.“ Solche Chatbots basieren auf LLMs-Systemen (Large Language Models = große Sprachmodelle). Um menschliche Sprache zu verstehen und zu generieren, werden solche Tools mit enormen Textdatenmengen unter Anwendung bestimmter Techniken trainiert, zum Beispiel „deep learning“.
Den Trend, warum manche Menschen einen Chatbot als Freund:in bevorzugen, erklärt Mag. Eva Maria Szemeliker, Klinische Psychologin im Eisenstädter Brüder- Krankenhaus: „Chatbots urteilen nicht. Wenn jemand mitteilungsbedürftig ist, so ist die KI eine perfekte Zuhörerin. Die Angst vor negativen Reaktionen tritt völlig in den Hintergrund. Diese Anwendungen leisten Personen in Momenten der Einsamkeit Gesellschaft, ohne zu werten. Sie sind immer freundlich und in der Regel so programmiert, dass sie Nutzer:innen in ihrer Sichtweise bestärken. Leider werden dadurch auch dysfunktionale, schädliche Verhaltensweisen und Denkmuster unreflektiert bestätigt.“ Wenn unser Gegenüber also nichts hinterfragt, birgt das große Gefahren. Insbesondere für junge oder kranke Menschen bzw. Menschen, die ohnehin schon psychisch belastet sind. Personen ziehen sich aus realen Freundschaften zurück und vernachlässigen echte soziale Kontakte. Das wiederum führt zu noch größerer sozialer Isolation. Ein Teufelskreis beginnt. Dazu kommen ethische Fragen, etwa im Hinblick auf den Datenschutz. Wer selbst KI-Anwendungen benutzt, sollte hinterfragen: Was wird von meinen Fragen und Chats eigentlich aufgezeichnet, abgespeichert oder weiter- verarbeitet? Bei den meisten bleiben diese Antworten wohl offen.
TROST UND THERAPIE BEI KRANKHEIT?
Der Trend zu digitalen Freundschaften ist besonders in emotionalen Ausnahmesituationen gefährlich. Beispielsweise in Lebenssituationen, die von Krankheit und Leid geprägt sind. Es fehlt dann oft ein guter Gesprächspartner, vielleicht auch eine Art Therapeut. Genau dann spielen die Chatbots ihre „Stärken“ aus: Sie generieren Rückfragen und passen sich sprachlich an. Es gibt Antworten zu jeder Tages- und Nachtzeit. Auch dann, wenn reale Personen vielleicht nicht erreichbar sind. Kranke Menschen bekommen Antworten auf Fragen, die ein Arzt, eine Ärztin oder ein Therapeut, eine Therapeutin im realen Leben gar nicht geben können. Aber die KI gibt immer eine Antwort! Ob diese richtig ist, sei dahingestellt, aber Tatsache ist, dass das gerade bei psychologisch instabilen Menschen bedenklich ist.
Im Resümee sind sich die beiden Fachleute einig: „Einsamkeit kann ernsthafte Folgen für die körperliche und seelische Gesundheit haben. Künstliche Intelligenz kann ein ergänzendes Werkzeug sein, um Einsamkeit zu begegnen, aber sie hat, auch wenn sie noch so vermenschlicht dargestellt wird, ihre Grenzen. Wichtige Aspekte zwischenmenschlicher Kommunikation fehlen, wie achtsames Schweigen oder das Einordnen von Emotionen.“ Wie bei jeder Innovation ist es wichtig, potenziellen Schaden und Nutzen im Blick zu haben. Machen Sie sich stets bewusst: Chatbots und Co. sind nur Tools, die unser Leben in bestimmten Situationen erleichtern können. Keinesfalls sind sie Ersatz für zwischenmenschliche Beziehungen.
