Ich finde den Artikel über AI wirklich gut den du da über den Copiloten von Microsoft geschrieben hast!
Ich finde auch, dass man die Ergebnisse im Nachhinein gegegenprüfen sollte. Manchmal ist es eben erst im Nachgang möglich, sich die Dinge dann anhand der neuen Informationen die man bekommt, auch selbst leichter anzueignen und mit der eigenen Logik gegenzuprüfen.
Die KI nimmt eben auch die eingabevariablen die man beim Fragen und nachfragen stellt an und kennt sich mit manchen Themen besser mit anderen schlechter aus. Im Grunde wenn man dort einen neuen Chat beginnt kommt teilweise nochmal die alten Fehler oder eine völlig andere Antwort heraus, da viele Dinge wohl auch in der Realität schon komplex und widersprüchlich sind, also man findet immer etwas im Internet was die eigene Meinung bestätigt. Diese Chat Bots greifen da ja auf ganz widersprüchliche Daten zu, der Fragesteller bestimmt also auch wohin die Reise geht. Zudem muss man auch mit politischen Einflüssen und Werbung rechnen, wo man nur hoffen kann das diese neuen und potentiell riskanten Systeme vor Lügen und Profitmaximierung von Konzernen etwa verschont bleiben.
Ich nutze den Copiloten auch gern, aber es gibt ja gleichzeitig auch weitere wie Grok von X, Chat GPT oder von Google Bart, da kann man manchmal auch so vergleichen und gegenprüfen, da diese Systeme eben auch Stärken und Schwächen fast wie wir Menschen schon haben, also da viel Richtiges aber auch Falsches übernommen wird.
Manchmal gibt es ja zig Lösungswege, genauso unbestimmt können die Antworten dort sein und wenn die KI überfragt ist kann es auch chaotische Antworten geben und das die KI einen auch anlügt oder bestätigt das ihre Daten richtig sind, sollte man immer nachher nachprüfen.
Ich mache mir eher Sorgen das die Antworten bezüglich Marketings von Firmen auch berechnend falsch gemacht werden könnten, wenn diese Systeme für unethisches oder Geschäftemacherei missbraucht werden, das kann womöglich auch zu Verzerrungen führen und dass man am Ende sogar an der Nase herumgeführt wird.
Da steht glaube ich vieles in der Schwebe und das Betreiben solcher Systeme wird auch viel Kosten erzeugen, wobei man es trotzdem nutzen, sollte um Fehler auch frühzeitig zu erkennen und selbst ein Verständnis für die Fehleranfälligkeit solcher Systeme zu bekommen die zurzeit relativ offensichtlich sein können, aber später der Teufel eben im Detail liegen kann, wenn sich Verzerrungen einschleichen.
Ist zumindest auch keine ungefährliche Technologie, die uns entweder große Dienste erweisen kann, aber ebenso unklare Risiken hat.