Gesprächspartner KI
Ich lese in der Berliner Morgenpost: „Seelsorger ChatGPT: So viele Menschen suchen psychischen Rat bei der KI“. Und ich denke mir: das ist doch uralt; das haben viele schon vergessen!
Schon im Jahr 1966 hatte Joseph Weizenbaum ein Programm namens ELIZA entwickelt, das die Gesprächsstrategien eines Gesprächstherapeuten simulieren konnte. Weizenbaums Absicht war, die Verarbeitung natürlicher Sprache durch Computer zu demonstrieren. Er wurde missverstanden: ernsthafte (?) Psychotherapeuten waren der Meinung, dass das Programm für Therapie noch „nicht ganz ausgereift“ war.
Jetzt kehrt das als KI-Variante wieder! Wir lernen nix dazu.
Zusammenfassung
Nein: Künstliche Intelligenz kann eine kompetente Psychotherapeutin / einen kompetenten Psychotherapeuten sicher nie ersetzen.
Ich höre schon das Argument: Aber die KI von heute ist doch mit Weizenbaums ELIZA nicht zu vergleichen. Die kann doch viel mehr.
Ja, sie kann mehr. Sie kann jetzt auch deutsche Sätze und Fragen umformulieren. (Das ist deutlich schwieriger als im Englischen.)Sie kann große Datenbestände ansammeln und aus diesen Formulierungen zusammensuchen. Aber sie kennt immer noch keinerlei Empathie. Sie kennt keine Gefühle und kann auch keine einschätzen. Es steht einfach niemand mit einem „Verständnis“ gegenüber.
Bitte abschminken!
Was müsste eine KI antworten, wenn sie mit Fragen nach Depression, Suizid, Selbstmord befasst werden würde?
Ich sehe, dass Sie sich mit Depression / Suizid / Selbstmord befassen. Bitte konsultieren Sie dazu nicht mich; ich bin nur eine KI und kann hier keine kompetenten Antworten zur Verfügung stellen.
Das wäre das äußerste Maß an tolerierbarer k. Intelligenz.

Schreibe einen Kommentar