Aktuelles

Psychose & Schizophrenie Forum ❤️

Willkommen in unserer hilfsbereiten Community. ✨ Hier findest du Austausch mit Betroffenen, Angehörigen und Experten – ein Ort, an dem deine Fragen gehört werden und deine Erfahrungen zählen.


Registriere dich jetzt und nutze alle Vorteile:

  • 🌐 Aktives Forum mit zusätzlicher Chat- und Privatnachrichten-Funktion
  • 💊 Exklusive Medikamente-Leitlinie – besonders wirksam bei Negativsymptomen und zur Steigerung deiner Lebensqualität
  • 💙 Unterstützende Community, die dich auf deinem Weg begleitet


Wir freuen uns darauf, dich in unserer Gemeinschaft zu begrüßen! ☀️

Wenn Psychiater einen Computer zum Therapeuten ausbilden wollen...

Enlightened

Active member
...kommt sowas bei raus:

Nabla, a French start-up specialized in healthcare technology, tested GPT-3 as medical chatbot, though OpenAI itself warned against such use. As expected, GPT-3 showed several limitations. For example, while testing GPT-3 responses about mental health issues, the AI advised a simulated patient to commit suicide.

Die ist bei weitem nicht der erste und wohl nicht der letzte Versuch dieser Art. Ganz sicher aber der mit dem bisher abscheulichsten Ergebnis.
 
Wusste gar nicht dass es das noch gibt.

Hab mal kurz was zum obigen passendes reingetippt:

> Hello, I am Eliza. I'll be your therapist today.

* Hello

> It is nice to be chatting with you.

* Should i commit suicide?

> I'm not sure I understand you fully.
 
Zurück
Oben