Könnte ein Roboter ein anständiger Therapeut sein?

Ellie Therapeut Bot Talkspace Konferenz

Wir haben fortschrittliche künstliche Intelligenz gesehen, die in der Lage ist, Gespräche wie Siri, IBMs Watson und Microsoft Cortana zu führen. Aber könnte ein Roboter - selbst etwas, das nur für Psychotherapie entwickelt wurde und weiter fortgeschritten ist als die oben genannten AIs - ein anständiger Therapeut sein?





Leute haben benutzt Bots für die Therapie, aber es ist nicht klar, ob sie menschliche Therapeuten in unserem Leben übertreffen könnten. Wenn Sie die Vergangenheit, Gegenwart und mögliche Zukunft von Robotern als Therapeuten betrachten, erhalten Sie eine Vorstellung davon, wie effektiv sie sein könnten.

Ein frühes Beispiel eines Roboters, der versucht, Therapeut zu werden

ELIZA ist eines der frühesten und bekanntesten Programme, die versucht haben, als Therapeutin zu fungieren. Der MIT-Professor und Informatiker Joseph Weizenbaum entwarf ELIZA für die Rogerianische Psychotherapie.





Da die rogerianische Psychotherapie die Klienten in erster Linie dazu ermutigt, mehr zu reden als zu diskutieren, reichten die begrenzten Konversationsfähigkeiten von ELIZA aus, um einige Menschen davon zu überzeugen, dass es sich um Menschen handelt, und um ihnen zu helfen, sich bei ihren Problemen ein wenig besser zu fühlen. Trotzdem konnte ELIZA nichts Vergleichbares zur Therapie mit einem menschlichen Therapeuten anbieten.

Um die Einschränkungen von ELIZA zu demonstrieren, habe ich das folgende Transkript mit a erstellt moderner ELIZA Simulator ::



ELIZA Hallo, ich bin Eliza.
Talkspace: Hallo Eliza, ich habe mich in letzter Zeit einsam und deprimiert gefühlt, bin mir aber nicht sicher warum. Können Sie mir helfen, das herauszufinden und mich besser zu fühlen?
ELIZA: Vielleicht möchten Sie Ihnen helfen, das herauszufinden und sich besser zu fühlen?

Wie kann ich meinem Freund bei Depressionen helfen?

Beachten Sie, wie ELIZA meinen Text aufnimmt und umformuliert, den Fokus wieder auf mich legt und mich ermutigt, mehr zu reden als zu sprechen. Dieser Ansatz funktioniert für einige Kunden, wird jedoch für andere schnell frustrierend und nutzlos.

Als KI und Chatbots Fortschritte machten, wurden sie in der Lage, überzeugendere Gespräche zu führen. Unabhängig davon, ob die Programmierer sie für die Therapie entwickelt haben oder nicht, die technologischen Verbesserungen ermöglichten es ihnen, eine viel bessere Therapie als ELIZA anzubieten. Dennoch sind moderne Bots im Allgemeinen nicht intelligent genug, um mit einem menschlichen Therapeuten mithalten zu können.

Moderne Bots, die grundlegende Therapie bieten können

Durch die Erstellung größerer Datenbanken mit Antworten zur Auswahl und die Entwicklung von Programmen, die über sich selbst sprechen können, haben Programmierer Roboter erstellt, die leichter als Therapeuten durchgehen können.

Während der klinischen Talkspace-Konferenz Die Zukunft der Therapie Jonathan Gratch, USC-Professor und Forschungsdirektor für virtuelle Menschen gezeigt wie moderne Formen der künstlichen Intelligenz klinisches Screening und Basistherapie ermöglichen können. Gratch stellte Ellie vor, eine KI, mit der er während einer Studie „Indikatoren für Depressionen hervorrief“.

Jonathan Gratch Ellie Konferenz zur Zukunft der Therapie
Der Streifen befindet sich auf der rechten Seite des Bildes.

Hier ist ein Teil des Dialogs zwischen einem Teilnehmer in Gratchs Studie und Ellie:

Ellie: Also, wie geht es dir heute?
Teilnehmer: Mir geht es gut.
Ellie: Das ist gut. Wo kommst du ursprünglich her?
Teilnehmer: Ich komme aus Los Angeles.
Ellie: Oh, ich komme selbst aus LA.

Symptome einer Depression bei Männern

Im Gegensatz zu ELIZA konnte Ellie über sich selbst sprechen und ein Gespräch führen, anstatt nur die erhaltenen Antworten neu zu formulieren. Das Programm erkennt Mimik und analysiert laut Gratch Audio und Haltung. Diese Analyse wird verwendet, um die Reaktion zu formulieren und den Ton anzupassen.

Trotzdem gab Gratch zu, dass Ellie weit davon entfernt war, das Verständnis zu vermitteln, das ein menschlicher Therapeut vermitteln konnte.

'Es versteht nicht genau, wovon Sie sprechen', sagte Gratch. 'Ich sehe uns kurzfristig nicht in der Lage, mit Technologie die Ziele, Motive und Bedürfnisse einer Person grundlegend zu verstehen.'

Ellie wurde auf sichere Weise implementiert. Es kann jedoch negative Konsequenzen haben, wenn ein Bot Emotionen nicht versteht und Informationen bei sensiblen Gesprächen mit hohen Einsätzen, wie z. B. zwischen Therapeuten und Klienten, nicht filtert.

Ein Beispiel dafür war Hand , ein Bot, den Microsoft entwickelt hat, um mit Menschen zu interagieren und von ihnen zu lernen. Dabei werden seine Antworten und sein Verhalten basierend auf dem erhaltenen Text ständig geändert. Tay's Schöpfer hatten die schreckliche Idee, es auf Twitter zu veröffentlichen, wo es mit jedem im Internet interagieren kann.

Wie behandelt man eine bipolare Störung?

Es begann unschuldig, als Tay Spaßsprache benutzte und Witze machte. Aber weil Twitter voller Trolle ist, endete es damit, dass Tay rassistische Kommentare ausstieß und den Holocaust leugnete.

Tay Twitter Seite
Microsoft hat Tay heruntergefahren und seine Tweets nach dem Vorfall geschützt.

Therapeuten-Bots sind empfindlicher, aber es besteht immer noch das Risiko, dass Kunden unbeständige Antworten erhalten und die Situation verschärfen, anstatt sie zu trösten.

Werden Roboter in naher Zukunft die menschlichen Therapeuten übertreffen?

Roboter sind viele Jahrzehnte davon entfernt, das kreative Denken und die empathischen Fähigkeiten von Therapeuten zu übertreffen. Es besteht auch die Möglichkeit, dass sie niemals mit Therapeuten konkurrieren können. Sie sind ein nützliches klinisches Instrument, aber nur ein Fleisch- und Bluttherapeut kann die therapeutische Beziehung herstellen, die ein Klient benötigt, um signifikante Fortschritte zu erzielen.