Enlightened
Active member
...kommt sowas bei raus:
Die ist bei weitem nicht der erste und wohl nicht der letzte Versuch dieser Art. Ganz sicher aber der mit dem bisher abscheulichsten Ergebnis.
Nabla, a French start-up specialized in healthcare technology, tested GPT-3 as medical chatbot, though OpenAI itself warned against such use. As expected, GPT-3 showed several limitations. For example, while testing GPT-3 responses about mental health issues, the AI advised a simulated patient to commit suicide.
Die ist bei weitem nicht der erste und wohl nicht der letzte Versuch dieser Art. Ganz sicher aber der mit dem bisher abscheulichsten Ergebnis.