KI-Avatare: Hilfreich oder gefährlich im Trauerprozess?
Zwischen Trost und Täuschung: Virtuelle Abbilder Verstorbener verändern die Trauerkultur. Fachkräfte warnen, dass KI-Avatare heilsame Abschiede erleichtern – oder gefährlich verzögern können. Ein Thema, das die Palliativversorgung neu herausfordert.
Eine tiefe menschliche Sehnsucht: Der verstorbene Partner, die Mutter, das Kind kommt zurück und bleibt. KI-gestützte Abbilder können Abschiedsprozesse erleichtern – oder auch verhindern. Über ein Thema, das gerade in der Palliativversorgung ankommt.
Ein Vater verstirbt plötzlich und unerwartet. Frau und Kinder können sich nicht von ihm verabschieden, wichtige Dinge bleiben ungesagt. Ein Chatbot, gefüttert mit alten Nachrichten, Briefen und Fotos, soll helfen, nachzuholen, was zu Lebzeiten nicht mehr möglich war. Die Familie bleibt dauerhauft in Kontakt mit ihm.
Willkommen in der „Digital Afterlife Industry“ – dem Markt für virtuelle Friedhöfe, KI-gestützte Chatbots und digitale Avatare, mit denen der Tod nicht überwunden wird, die aber doch versprechen, ihn erträglicher zu machen. Für Ärztinnen und Ärzte sowie Palliativ-Fachkräfte stellt sich die Frage: Sind diese digitalen Mittel ein hilfreiches Werkzeug in der Trauerarbeit – oder fördern sie gefährliche Illusionen, die Menschen daran hindern, gesunde Trauerprozesse zu durchlaufen?
KI oder Kassettenrekorder: Sind beides nur Instrumente?
Trauerarbeit habe schon immer mit Hilfsmitteln gearbeitet, sagt die Palliative-Care-Expertin Dorothée Becker im Podcast. Die ehemalige Intensivkrankenpflegekraft ist noch in den Anfängen der Palliativszene in den Bereich Palliative Care gewechselt und hat sich ihr ganzes berufliches Leben mit dem Thema Sterben auseinandergesetzt. Einige Jahre leitete sie ein Hospiz, jetzt arbeitet sie wieder als Dozentin und gibt ihre langjährige Erfahrung weiter.
Manche Hinterbliebene schreiben Briefe an Verstorbene, früher sprach man manchmal sogar Kassetten ein, erzählt sie. Viele Trauernde besuchen die Gräber der Verstorbenen, um sich mit der Person auszutauschen. „Manchmal ist ein Chatbot vielleicht einfach nur ein anderes Instrument zur Trauerbearbeitung – statt des Kassettenrekorders wird die KI genutzt“, sagt sie.
Aber wo ist die Grenze zwischen gesunder Erinnerungskultur und problematischer Realitätsverweigerung? Ein Brief, ein Foto, selbst ein aus der Asche gepresster Diamant sind statische Erinnerungen, sagt Becker. Ein KI-Avatar hingegen könne neue und überraschende, manchmal auch verstörende Antworten geben. Er könne sich sogar weiterentwickeln. „Es kann also etwas Neues entstehen, was die trauernde Person neu bindet“, so die Expertin.
Ein zentraler Bestandteil gesunder Trauer ist es, die Erinnerung an einen geliebten Menschen behutsam einzusortieren, betont Becker. Je besser jedoch digitale Hilfsmittel eine verstorbene Person in das echte Leben integrieren, desto größer sei das Risiko, dass sich eine Scheinrealität verfestigt. „Wenn ich jeden Tag mit dem Chatbot meines Partners spreche, findet der Trauerprozess nicht wirklich statt.“ Die Folge könnten pathologische Trauerreaktionen sein, Retraumatisierungen und emotionale Abhängigkeit von einer Technologie.
Wie würde sie als Palliative-Care-Fachkraft auf eine Familie reagieren, die einen Avatar des Vaters erstellen möchte? „Ich würde offen bleiben – wie immer, wenn Menschen mit einem Anliegen auf mich zukommen“, betont Becker. Aber sie würde fragen: Welches Motiv steckt hinter dieser Idee? Was soll der Avatar bewirken? Und: Hätte die verstorbene Person das gewollt?
Hinter der digitalen Unsterblichkeit steckt aber nicht nur ein Menschheitstraum der Unendlichkeit, sondern auch hartes Business. Manche Unternehmen, die solche Dienste anbieten, versuchen, die Trauernden mit gezielten Kommunikationsstrategien so lange wie möglich an sich zu binden. Was aber geschieht, wenn Angehörige sich das Abo nicht mehr leisten können? Wer schaltet den Avatar ab? Und was macht dieser zweite Tod mit Menschen, die gerade einen Trauerprozess durchlaufen?
Auch viele rechtliche Fragen sind bislang noch quasi ungeklärt: Wer entscheidet, ob ein Avatar erstellt werden darf? Was, wenn Familienmitglieder unterschiedlicher Meinung sind? Und wer garantiert, dass die KI nicht manipuliert wird? Es braucht noch viel mehr Forschung, mehr Bildung, mehr Diskurs in Fachkreisen, sagt Becker. Denn das Phänomen sei schon längst bei uns angekommen – „und es wird sich weiterentwickeln, ob wir wollen oder nicht. Und unsere Aufgabe ist es, die Menschen gut zu begleiten.“
Fachkräfte müssen jetzt an der Entwicklung dranbleiben
Ihre dringende Empfehlung an Fachkräfte: Sich nicht zurücklehnen, nicht abwenden, sondern aktiv auseinandersetzen. Fortbildungen besuchen, Positionen entwickeln, in den Diskurs gehen. Denn die spezialisierte ambulante Palliativversorgung (SAPV) sei immer ein Spiegel der Gesellschaft. „Wir begleiten Menschen zu Hause, in ihrem Umfeld. Wir müssen offen bleiben für diese Vielfalt – auch in der digitalen Trauerarbeit.“
Angehörige, die über einen Avatar nachdenken, sollten auf jeden Fall nicht allein gelassen werden. Sie brauchen jemanden an ihrer Seite, „eine Fachkraft, die den Prozess begleitet – wohin auch immer er führt“. Es brauche Psychologinnen und Psychologen, Palliativ-Pflegekräfte, Ärztinnen und Ärzte die bereitstehen, wenn die KI plötzlich Dinge sagt, die schmerzen, oder wenn der Trauerprozess einen unguten Verlauf nimmt. Auf die Frage, ob sie wollen würde, dass ihre Tochter in 20 Jahren noch mit ihrem digitalen Avatar spricht, antwortet Becker ohne Zögern: „Meiner Tochter zuliebe würde ich es nicht wollen. Sie muss abschließen dürfen.“
Wenn Sie mehr darüber wissen wollen, wie sich Trauerkultur durch Künstliche Intelligenz verändert, welche rechtlichen Fragen sich stellen und wie Sie als Ärztin, Arzt oder Pflegekraft Angehörige in dieser neuen Realität professionell begleiten – dann hören Sie unseren Podcast. Dorothée Becker teilt darin nicht nur ihre jahrzehntelange Erfahrung, sondern auch ihre konkrete Hoffnung: Dass wir nicht aufhören, „uns der Welt neugierig zuzuwenden“.