Schlagwort: Therapie

  • Wenn menschliche Therapeuten künstlicher als KI sind

    Den unten stehenden Dialog hat Konstantin gebloggt und es klingt wie ein Gespräch zwischen Therapeut:in und Klient:in.

    Tatsächlich dürfte ChatGPT / Bing / Sydney bereits heute menschlicher reagieren, als die Person in Konstantins Beispiel.

    Und ich kann seine Reaktion ganz genau 1 zu 1 nachvollziehen.

    Und das zeigt auch:

    Wenn wir uns gegenüber maschinell gelerntem Verhakten als Menschen abheben möchten, dann müssen wir von uns lersöblich erzählen. Unsere eigenen Erfahrungen, Ideen und Einschätzungen geben, die wir in unserem Leben gesammelt haben.

    Denn das kann KI eben noch nicht:

    Leben und eigene Erfahrungen machen.

    Aber: Auch hier würde ich mir nicht allzu sicher sein, dass sich das schon bald ändert.

    Also:

    Nicht, dass AIs wie ChatGPT, Bing oder Sydney oder Lamda eigene Lebenserfahrungen machen. Das nicht.

    Was sie aber können ist: DiengesammeltejnLebenserfshrungen aus Biographien und Romanen sammeln, auswerten, vernetzen, neu generieren und mit therapiedaten abgleichen:

    Welche Geschichten funktionieren bei welchen Klienten besonders gut?

    Welche Anekdote erzielt die gewünschte Wirkung?

    Wer wünscht die Wirkung eigentlich?

    Klient

    Oder

    Künstlicher Therapeut?

    Hier geht es zu dem angesprochenen Entlassungsgespräch aus dem Konstantin erzählt hat

  • ChatGPT und andere AIs werden Therapeut:innen sicher nicht ersetzen. Aber eine sinnvolle Ergänzung und Arbeitserleichterung können sie schon sein.

    Bereits 4000 Menschen hat das Mental Health Startup Koko psychische Unterstützung mit GPT-3 geboten. Sagte zumindest neulich einer der Cofounder Robert Morris auf Twitter.

    Wie genau er das gemacht hat, steht bei Fast Company

    Ich finde, dass das ganze noch viel zu kurz gedacht ist. Wie ich schon neulich in meinem Gedanken Verträge sind Algorithmen für Menschen muss man mal überlegen, was so eine AI alles kann, wenn sie speziell auf eine bestimte Therapieform trainiert ist. Wenn Sie zig-tausende Stunden von Therapiegesprächen und deren Auswirkungen analysieren kann:

    • was hat funktioniert
    • was nicht
    • welche Methoden könnten passen, die den Therapeut:innen möglicherweise gar nicht bekannt sind
    • welche Symptome sind da, die noch nicht erkannt wurden
    • und und und

    Und da sind wir erstmal nur bei der Conversational AI.

    Was, wenn Gesichtserkennung mit hinzu kommt?

    Analyse der Körpersprache?

    Biomarker, Analyseergebnisse von Blut, Speichel, Urin?

    Klar, dass hier Datenschutzmaßnahmen VORHER ergriffen werden müssen.

    Klar, dass Therapeut:innen unglaublich verantwortungsvoll mit all den Informationen umgehen müssen. Aber das müssen sie JETZT schon.

    Ich bin ein Symptome und Diagnosengoogler. Wenn mit ein Ärzt:innen sagen, was ich habe, dann mache ich mich schlau. Im Rahmen dieser speziellen Diagnose vermutlich umfangreicher als Ärzte es überhaupt können. Eine KI, die mir dabei helfen könnte Verbindungen zu sehen fände ich phänomenal.

    Und was bei rein körperlichen Erkrankungen helfen kann, kann auch mit ziemlicher Sicherheit auch bei psychischen Erkrankungen helfen.

    Denn eigentlich sind psychische Erkrankungen ja doch physische. Nur dass die Zusammenhänge ud Funktionisweisen des Gehirns an sich und im Kontext des gesamten Körpers noch so kleinteilig und komplex sind, dass wir sie noch nicht verstehen.

    Und genau DABEI kann AI prima helfen.