Aktuelles

Psychose & Schizophrenie Forum ❤️

Herzlich willkommen in unserer hilfsbereiten Community. ✨ Hier findest du Austausch mit Betroffenen, Angehörigen und Experten – ein Ort, an dem du deine Symptome und Erfahrungen verarbeiten kannst.

    Registriere dich jetzt und nutze alle Vorteile:

    • 🌐 Ein aktivem Forum mit Chat- und PN-Funktion
    • 💊 Medikamente-Empfehlung ← Tipps bei kognitiven und negativen Symptomen für mehr Lebensqualität
    • 💙 Eine unterstützende Community, die an deiner Seite steht

    Wir freuen uns darauf, dich in unserer Gemeinschaft zu begrüßen! ☀️

Wenn Psychiater einen Computer zum Therapeuten ausbilden wollen...

Enlightened

Active member
...kommt sowas bei raus:

Nabla, a French start-up specialized in healthcare technology, tested GPT-3 as medical chatbot, though OpenAI itself warned against such use. As expected, GPT-3 showed several limitations. For example, while testing GPT-3 responses about mental health issues, the AI advised a simulated patient to commit suicide.

Die ist bei weitem nicht der erste und wohl nicht der letzte Versuch dieser Art. Ganz sicher aber der mit dem bisher abscheulichsten Ergebnis.
 
Wusste gar nicht dass es das noch gibt.

Hab mal kurz was zum obigen passendes reingetippt:

> Hello, I am Eliza. I'll be your therapist today.

* Hello

> It is nice to be chatting with you.

* Should i commit suicide?

> I'm not sure I understand you fully.
 
Zurück
Oben