Süßwasserperle
New member
Auch large language models LLMs haben Halluzinationen. Wobei dies Behauptungen von dem LLM bezeichnet, die nicht aus dem Trainingsdaten hervorgehen.
Aktuell habe ich heute Deepseek nach dem UEFA EM Frauen Halbfinale gefragt, was natürlich etwas gemein ist, da die Trainingsdaten nicht so weit reichen. Ergebnis: das Spiel sollte in Bilbao stattfinden. Als ich suggestiv nachfragte, ob es in Basel stattfindet, hat sie mir zugestimmt. Selbst auf die explizite Nachfrage, ob es vielleicht in Zürich stattfindet (der tatsächliche Ort), blieb Deepseek bei Basel.
Was zeigt uns das jetzt? Zum einen, dass man KI mit einer gewissen Skepsis benutzen sollte. Andererseits bin ich tatsächlich überrascht, dass Wahn und Halluzinationen beim Menschen so selten sind. Letztendlich sind unsere Gehirne Meisterwerke der Mustererkennung. Es scheint aber gewisse Systeme zu geben, die ein Überschießen unseres Gehirns in den meisten Fällen verhindern.
Aktuell habe ich heute Deepseek nach dem UEFA EM Frauen Halbfinale gefragt, was natürlich etwas gemein ist, da die Trainingsdaten nicht so weit reichen. Ergebnis: das Spiel sollte in Bilbao stattfinden. Als ich suggestiv nachfragte, ob es in Basel stattfindet, hat sie mir zugestimmt. Selbst auf die explizite Nachfrage, ob es vielleicht in Zürich stattfindet (der tatsächliche Ort), blieb Deepseek bei Basel.
Was zeigt uns das jetzt? Zum einen, dass man KI mit einer gewissen Skepsis benutzen sollte. Andererseits bin ich tatsächlich überrascht, dass Wahn und Halluzinationen beim Menschen so selten sind. Letztendlich sind unsere Gehirne Meisterwerke der Mustererkennung. Es scheint aber gewisse Systeme zu geben, die ein Überschießen unseres Gehirns in den meisten Fällen verhindern.