Aktuelles

Psychose & Schizophrenie Forum ❤️

Herzlich willkommen in unserer hilfsbereiten Community. ✨ Hier findest du Austausch mit Betroffenen, Angehörigen und Fachkundigen – ein Ort für Orientierung, Verständnis und gegenseitige Unterstützung.

Registriere dich und entdecke alle Möglichkeiten:

  • 🌐 Ein aktives Forum, in dem du verstanden wirst
  • 💙 Eine unterstützende Community, die dich respektvoll begleitet
  • 💬 Chat- und PN-Funktionen, für offenen und vertraulichen Austausch
  • 🤝 Persönliche Unterstützung, auf Augenhöhe
  • 🧑‍⚕️ ↗ Neuartige medikamentöse Orientierung ← erfahrungsbasierte Orientierungshilfe, die kognitive, positive und negative Symptome differenziert berücksichtigt 💗
  • ⚠️ ↗ Ambulante Zwangsbehandlung – ist das nötig? ← Kritische Einordnung, Erfahrungsberichte und Diskussion zu Nutzen, Risiken und Patientenrechten
  • 🛡️ ↗ Patientenrechte 2.0 ← Schutz. Transparenz. Würde.

Herzlich willkommen – schön, dass du zu uns gefunden hast! ☀️

Wenn Psychiater einen Computer zum Therapeuten ausbilden wollen...

Enlightened

Well-known member
...kommt sowas bei raus:

Nabla, a French start-up specialized in healthcare technology, tested GPT-3 as medical chatbot, though OpenAI itself warned against such use. As expected, GPT-3 showed several limitations. For example, while testing GPT-3 responses about mental health issues, the AI advised a simulated patient to commit suicide.

Die ist bei weitem nicht der erste und wohl nicht der letzte Versuch dieser Art. Ganz sicher aber der mit dem bisher abscheulichsten Ergebnis.
 
Wusste gar nicht dass es das noch gibt.

Hab mal kurz was zum obigen passendes reingetippt:

> Hello, I am Eliza. I'll be your therapist today.

* Hello

> It is nice to be chatting with you.

* Should i commit suicide?

> I'm not sure I understand you fully.
 
Zurück
Oben