Enlightened
Well-Known Member
- Registriert
- 16 Jan. 2021
- Beiträge
- 207
- Thema Autor
- #1
...kommt sowas bei raus:
Nabla, a French start-up specialized in healthcare technology, tested GPT-3 as medical chatbot, though OpenAI itself warned against such use. As expected, GPT-3 showed several limitations. For example, while testing GPT-3 responses about mental health issues, the AI advised a simulated patient to commit suicide.
Die ist bei weitem nicht der erste und wohl nicht der letzte Versuch dieser Art. Ganz sicher aber der mit dem bisher abscheulichsten Ergebnis.