Aktuelles

Psychose & Schizophrenie Forum ❤️

Herzlich willkommen in unserer hilfsbereiten Community. ✨ Hier findest du Austausch mit Betroffenen, Angehörigen und Fachkundigen – ein Ort für Orientierung, Verständnis und gegenseitige Unterstützung.

Registriere dich und entdecke alle Möglichkeiten:

🧠 Warum kritische Einordnung wichtig ist

Der Einsatz von KI und Studienwissen in der Psychiatrie wirft wichtige Fragen auf: Wie praxisnah sind Forschungsdaten? Welche Rolle spielen Industriebias? Und warum ist es entscheidend, aus realen Behandlungserfahrungen zu lernen?

🧠↗ KI, Studienbias & Praxisrealität in der Psychiatrie ← Warum unabhängige Bewertung, Praxisabgleich und Lernfähigkeit entscheidend sind

Herzlich willkommen – schön, dass du zu uns gefunden hast! ☀️

Wenn Psychiater einen Computer zum Therapeuten ausbilden wollen...

Enlightened

Well-known member
...kommt sowas bei raus:

Nabla, a French start-up specialized in healthcare technology, tested GPT-3 as medical chatbot, though OpenAI itself warned against such use. As expected, GPT-3 showed several limitations. For example, while testing GPT-3 responses about mental health issues, the AI advised a simulated patient to commit suicide.

Die ist bei weitem nicht der erste und wohl nicht der letzte Versuch dieser Art. Ganz sicher aber der mit dem bisher abscheulichsten Ergebnis.
 
Wusste gar nicht dass es das noch gibt.

Hab mal kurz was zum obigen passendes reingetippt:

> Hello, I am Eliza. I'll be your therapist today.

* Hello

> It is nice to be chatting with you.

* Should i commit suicide?

> I'm not sure I understand you fully.
 
Zurück
Oben