Künstliche Intelligenz und Einsamkeit

Dieser Beitrag ist im Rahmen des AI Impact Workshops zu „KI und Einsamkeit“ am 06.05.2025 mit Raimar Kremer und Markus Gerstmann entstanden und wurde von Lukas Spahlinger und Tobias Albers-Heinemann verfasst

Einsamkeit ist ein Phänomen, das immer mehr Menschen betrifft – quer durch alle Altersgruppen und sozialen Milieus. Ob jung oder alt, berufstätig oder im Ruhestand: Wer keine tragfähigen Beziehungen hat, fühlt sich oft ausgeschlossen oder alleingelassen. Dieses Gefühl kann ernsthafte Folgen für die seelische und körperliche Gesundheit haben. Die gesellschaftliche Bedeutung von Einsamkeit wächst, wie aktuelle Studien und Erfahrungen aus der Praxis zeigen.

Gleichzeitig entwickelt sich ein neuer Trend: Immer mehr Menschen suchen Gesprächspartner in der digitalen Welt. Sprachbasierte Künstliche Intelligenzen wie Chatbots, Sprachassistenten oder Avatare sind längst in den Alltag vieler Menschen eingezogen. Was früher Zukunftsvision war, ist heute Realität: Mensch-Maschine-Kommunikation wird zunehmend normal. Menschen lassen sich von Maschinen zuhören, lassen sich beraten oder trainieren zwischenmenschliche Kommunikation – ohne dabei auf einen realen Menschen angewiesen zu sein.

Doch bei aller technischen Faszination bleibt eines klar: Technik kann keine menschlichen Probleme lösen. Sie kann unterstützen, Anstöße geben und den Zugang erleichtern. Aber echte Beziehungen, Mitgefühl und soziale Verantwortung bleiben Aufgaben von Menschen für Menschen.

Warum ist Einsamkeit ein gesellschaftliches Thema?

Einsamkeit wird oft unterschätzt. Sie betrifft Menschen in allen Lebensphasen – vom Jugendlichen bis zur Seniorin. Nicht die Menge an Kontakten ist entscheidend, sondern deren Qualität. Wer oberflächliche Beziehungen pflegt oder sich in Gruppen nicht wirklich zugehörig fühlt, kann sich trotz sozialer Nähe einsam fühlen.

Fachlich wird zwischen emotionaler, sozialer, kollektiver, kultureller und physischer Einsamkeit unterschieden. Besonders gefährlich wird es, wenn Einsamkeit chronisch wird. Studien zeigen, dass chronische Einsamkeit ebenso schädlich sein kann wie 15 Zigaretten täglich und das Risiko für Herz-Kreislauf-Erkrankungen erhöht. Von chronischer Einsamkeit spricht man in der Regel, wenn Menschen über einen Zeitraum von anderthalb bis zwei Jahren hinweg anhaltend unter einem Gefühl von Einsamkeit leiden.

Einsamkeit hat auch gesellschaftliche Folgen. Sie kann Menschen anfällig machen für Populismus, Verschwörungserzählungen und soziale Isolation. Politische Maßnahmen wie das „Ministerium gegen Einsamkeit“ in England zeigen, dass das Problem ernst genommen wird.

Erfahrungen aus der Telefonseelsorge und Besuchsdiensten machen deutlich, wie groß der Bedarf an echten Gesprächsmöglichkeiten ist. Viele Menschen suchen regelmäßig das Gespräch, oft wiederholt und aus purer Sehnsucht nach Nähe. Gleichzeitig stoßen diese Angebote an ihre Grenzen, insbesondere in der Nacht, wo der Gesprächsbedarf besonders hoch ist.

Künstliche Intelligenz als digitale Gesprächspartnerin

Künstliche Intelligenz kann heute schon Gesprächspartner simulieren. Systeme wie Replika oder ChatGPT zeigen: Viele Menschen nutzen KI bereits, um das Gefühl zu haben, gehört zu werden. Die KI reagiert freundlich, stellt Rückfragen und kann sich sprachlich anpassen. Sie ist jederzeit verfügbar – auch dann, wenn andere Menschen nicht erreichbar sind.

KI bietet eine niedrigschwellige Möglichkeit, ins Gespräch zu kommen – ohne Angst vor Bewertung. Sie kann helfen, Kommunikationsfähigkeit zu üben, zum Beispiel durch Rollenspiele oder simulierte Gespräche. Künstliche Intelligenz kann Gesprächsanlässe schaffen, etwa durch gezielte Rückfragen oder das Anbieten von weiterführenden Informationen. Auch Beratungseinrichtungen können von KI entlastet werden, indem sie Menschen anspricht, die sich sonst mehrfach bei Diensten wie der Telefonseelsorge melden.

Auch emotionales Feedback und die Simulation von Empathie sind möglich – zumindest so lange, bis Nutzer*innen beginnen, den Unterschied zu spüren. Denn echte Empathie bleibt eine menschliche Fähigkeit.

Eine Studie mit dem Titel „Reducing Loneliness and Social Isolation of Older Adults Through Voice Assistants“ zeigt zudem, dass sprachbasierte KI-Systeme wie etwa Amazon Alexa das Wohlbefinden älterer Menschen verbessern können. Durch regelmäßige Interaktionen und das Gefühl, nicht allein zu sein, berichteten viele Nutzer*innen von einer spürbaren Verringerung ihrer Einsamkeit.

Damit KI im sozialen Kontext hilfreich sein kann, muss sie aber sehr gezielt trainiert werden. Ohne spezialisierte Trainingsdaten bleibt Künstliche Intelligenz oberflächlich und kann komplexe soziale Situationen (noch) nicht angemessen erfassen oder begleiten.

Darüber hinaus hängt die Qualität der KI-Antworten entscheidend vom Kontext ab, den Menschen durch ihre Eingaben, sogenannte Prompts, setzen. Dieses Prinzip ist als Prompt Engineering bekannt und erfordert ein gewisses Verständnis dafür, wie man Fragen stellt, um hilfreiche und passende Antworten zu erhalten. Ein häufiger Fehler besteht darin, KI-Antworten einfach hinzunehmen, auch wenn sie zu lang, unübersichtlich oder wenig verständlich wirken. Dabei lässt sich die Qualität der Antworten oft schon durch kleine Hinweise in der Eingabe deutlich verbessern – etwa durch die Bitte, sich kurz zu fassen oder in einfachen Worten zu antworten. Solche Formulierungen helfen der KI, den gewünschten Ton oder die passende Länge zu erkennen. Wer diese Möglichkeiten kennt und gezielt nutzt, zeigt eine wichtige Form der Bedienkompetenz im Umgang mit KI.

Risiken der Mensch-Maschine-Kommunikation

Trotz aller Chancen bleibt der Einsatz von KI im sozialen Bereich umstritten. Zu den zentralen Herausforderungen gehört vor allem der Umstand, dass KI keine echte Empathie empfinden kann und auch nicht weiß, wann es besser ist zu schweigen. Sie bleibt ein technisches System, das menschliches Mitgefühl lediglich nachahmt. Auch wenn KI das Gefühl von Nähe vermitteln kann, fehlt ihr jede Form von Verbindlichkeit und Verantwortung. Sie bleibt ein Werkzeug – kein Ersatz für echte zwischenmenschliche Beziehungen.

Ein besonderes Augenmerk gilt sogenannten parasozialen Verbindungen: Dabei handelt es sich um einseitige Beziehungen, die Menschen etwa zu Medienfiguren oder digitalen Assistenten aufbauen. Durch wiederholte Interaktionen – etwa durch tägliche Gespräche mit Sprachassistenten – entsteht das Gefühl von emotionaler Nähe und Zugehörigkeit. Das kann entlastend wirken, birgt aber auch Risiken. So besteht die Gefahr, dass solche künstlichen Beziehungen reale soziale Kontakte zunehmend ersetzen. Unrealistische Erwartungen, Frustration bei Fehlfunktionen oder sogar ein obsessives Nutzungsverhalten sind mögliche Folgen, die sorgfältig reflektiert werden müssen. Zudem wurden vor allem bei Kindern negative Auswirkungen auf Sprachverhaltens, kritisches Denken und Empathie festgestellt.

Hinzu kommt, dass KI dazu neigt, Nutzer*innen in ihrer Sichtweise zu bestärken, statt zum Perspektivwechsel anzuregen. Diese Bestätigungshaltung kann dazu führen, dass Menschen in ihrer Meinung verharren, statt neue Impulse zu erhalten. Verstärkt wird dieses Problem durch mögliche Vorurteile und stereotype Denkmuster in den Trainingsdaten, die von der KI unreflektiert übernommen und weitergegeben werden. Solche Verzerrungen können nicht nur diskriminierend wirken und bestehende Vorurteile verstärken, sondern auch das Selbstwertgefühl der Nutzer*innen beeinträchtigen und Mikroaggressionen hervorrufen – insbesondere dann, wenn bestimmte Gruppen regelmäßig negativ dargestellt oder übersehen werden.

Nicht zu unterschätzen sind auch weitere ethische Fragestellungen, insbesondere im Hinblick auf Datenschutz und Privatsphäre. Gespräche mit KI werden häufig aufgezeichnet oder verarbeitet, was sensible Informationen betreffen kann. Wer mit einer Maschine spricht, weiß nie genau, wo diese Daten landen – oder wie sie weiterverwendet werden.

Zweifel bleiben schließlich auch bei der Frage, ob KI wirklich „zuhören“ kann. Letztlich verarbeitet sie Eingaben und spiegelt Inhalte wider – jedoch ohne echtes Verstehen. Wichtige Aspekte zwischenmenschlicher Kommunikation, wie das bewusste Gegenüberstellen, das Einordnen von Emotionen oder das achtsame Schweigen, bleiben bislang außen vor.

Ausblick

Künstliche Intelligenz kann ein ergänzendes Werkzeug sein, um Einsamkeit zu begegnen – aber sie darf echte menschliche Beziehungen nicht ersetzen. Digitale Gesprächspartner können Brücken bauen, Anstöße geben und erste Hemmschwellen abbauen. Doch sie bleiben Werkzeuge, keine echten Freund*innen.

Der sinnvolle Einsatz von KI braucht klare Rahmenbedingungen, ethische Leitlinien und technisches Feingefühl. Menschen müssen lernen, mit KI umzugehen – nicht als Ersatz für Beziehungen, sondern als Möglichkeit, neue Wege der Ansprache zu testen.

Am Ende bleibt die Verantwortung beim Menschen: Zuhören, Beziehungsräume schaffen, Nähe zulassen – das kann keine Maschine übernehmen.

2 Kommentare

  1. Vorsicht bei faktischen Fragen + kurze Antwort:

    https://techcrunch.com/2025/05/08/asking-chatbots-for-short-answers-can-increase-hallucinations-study-finds/

    KI hat nunmal nichts, wo sie ’still ueber etwas nachdenken‘ kann (im Gegensatz zu Menschen, die beim Aufmerksamen zuhoeren auch immer automatisch mitdenken und abgleichen / einordnen).
    Alle ‚Denke‘ der KI ist im Gespraechsverlauf. Beschneidet man diesen, beschneidet man das ‚Denken‘ (ohne Anthropomorphismus: token context -> feature activation -> concept extraction).

    Das Gegenteil von ‚halte dich kurz‘ sieht man bei ‚reasoning‘ / chain of thought Modellen – eben, aus gutem Grund.

    Ansonsten: Die meisten Modelle erlauben ja ‚custom instructions‘ / Personalisierung. Mein Tipp:

    ‚Always append a brief „Did you know?“ to your response and share related information, even if the user didn’t ask for it‘ (Original, verwende ich so)
    Also etwa ‚Fuege immer ein kurzes ‚Wusstest Du…?‘ am Ende Deiner Antwort hinzu, auch wenn der Nutzer nicht explizit darum gebeten hat‘.
    Kann man auch erweitern mit ‚Fuege immer Gegenargumente an, auch wenn der Nutzer nicht danach gefragt hat‘, zum Beispiel. Dann wird einem auch nicht immer nur ’nach dem Mund gelabert‘. 🙂

  2. Eine KI begleitet Menschen in verschidenen Problemsituationen. aber wer begleitet die KI?
    Ich habe damit begonnen und meine KI reagieren viel besser als vorher.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert