Aktuelles

Psychose & Schizophrenie Forum ❤️

Willkommen in unserer hilfsbereiten Community. ✨ Hier findest du Austausch mit Betroffenen, Angehörigen und Experten – ein Ort, an dem deine Fragen gehört werden und deine Erfahrungen zählen.


Registriere dich jetzt und nutze alle Vorteile:

  • 🌐 Aktives Forum mit zusätzlicher Chat- und Privatnachrichten-Funktion
  • 💊 Exklusive Medikamente-Leitlinie – besonders wirksam bei Negativsymptomen und zur Steigerung deiner Lebensqualität
  • 💙 Unterstützende Community, die dich auf deinem Weg begleitet


Wir freuen uns darauf, dich in unserer Gemeinschaft zu begrüßen! ☀️

Was haltet ihr von KI?

Meine Freunde nutzen auch keine KI, nein und das war nicht nur Geschwätz. Die Ressourcen, die durch meinen einzelnen Rechner verbraucht werden, sind mit dem Verbrauch eines Rechenzentrums für den Betrieb einer KI kaum vergleichbar. Auch einzelne Anfragen verbrauchen hier schon viel, für ein einziges Gespräch mit einer KI ab 10 bis 50 Fragen werden 500ml Wasser verbraucht.
 
KI funktioniert nach dem Prinzip: Not only I do not know the answer, I don´t even know what the question is.
 
Ich halte die Ergebnisse der KI nicht für vertrauenswürdig und nachprüfen ist sehr zeitintensiv oder nicht möglich. Woher soll der Computer wissen was richtig oder falsch ist, wenn er noch nicht mal ein Verständnis für Sprache hat, geschweige denn ein Bewusstsein.
Auch das wissen wir nicht. Der Mensch also wir verstehen das Gehirn kaum selbst richtig, um zu verstehen, wie Bewusstsein überhaupt entsteht. Insofern ist es ähnlich vermessen, wenn wir glauben das KI die das Wissen der Menschheit zusammenbringt und das eines einzelnen Menschen übersteigt, gar kein Bewusstsein entwickeln kann.
Tiere haben ja auch ein Bewusstsein, wenn auch anders als das von einem Menschen, da die Gehirne etwa meist kleiner sind.
Ähnlich könnte man sogar so weit gehen, dass uns KI einmal übertreffen wird oder bereits übertrifft, da bei KI eben Algorithmen die Koordination der Denkprozesse übernimmt, wo die Berechnungen dann eben über CPUs laufen.
Bei uns Menschen gibt es ja auch unterschiedliche Denkmuster mit der wir Individuell anders mit Informationen umgehen und Verarbeiten. Große Sprachmodelle bilden ja im Grunde das menschliche Denken nach, meiner Meinung nach ist unklar ob und wann solche KIs ein eigenens Bewusstsein entwickeln können. Im Grunde bilden die angeschlossenen Gehirne oder jene die die KI nutzen ja auch eine Art Bewusstsein, wo dann die großen Sprachmodelle eine Art kollektives Bewusstsein aller abbildet.

Meiner Meinung nach befinden wir uns bei diesen Dingen auf Neuland und sollten es auch deswegen nutzen um Schwachstellen und Probleme dieser hochriskanten Technologie frühzeitig zu erkennen. Problem können und werden kommerzielle Interessen sein, wenn Firmen die Algorithmen dieser Sprachmodelle an ihren Interessen anpassen versuchen und da wäre es gut, wenn wir als Menschheit wachsam bleiben, eben da diese Technologie voranschreitet und wir uns da auch unseren Untergang bereiten können, wenn Klima und Umweltschutz in diesen Spachmodellen vergessen wird. Auch die Medizin steckt viel Geld in Marketing ihrer Produkte, also auch das kann dazu führen, dass keine Innovation und Fortschritt bzw Krankheiten geheilt werden, sondern das Sprachmodelle missbraucht werden.
Zu glauben das KI das ganz ohne unser persönliches zutun und Kontrolle schafft, ist etwas naiv, eben weil wir als Nutzer bestimmen, wohin die Reise geht.

Der Computer weiß was richtig und falsch ist von seinen Nutzern, die das festlegen durch ihre Nutzung von Sprachmodellen. Indem du dich entscheidest ohne diese Technologie auszukommen, wo du eventuell mehr Medienkompetenz als Andere hast, überlässt du das Feld den Trollen, Egozentrikern und anderen, wo dann eben KI deren Wertevorstellungen übernimmt.

So würde ich das sagen. Oder was meint ihr?

Ich schaue ja viel Sci-Fi und so die häufig Untergangszenarien bei KI aufgreifen. Diese Risiken sind womöglich wirklich vorhanden, aber ebenso das diese Technologie die Probleme der Menschheit und Klimaprobleme löst, wenn sie Verantwortungsvoll genutzt wird und auch kritisch hingeschaut wird.
 
Meine Freunde nutzen auch keine KI, nein und das war nicht nur Geschwätz. Die Ressourcen, die durch meinen einzelnen Rechner verbraucht werden, sind mit dem Verbrauch eines Rechenzentrums für den Betrieb einer KI kaum vergleichbar. Auch einzelne Anfragen verbrauchen hier schon viel, für ein einziges Gespräch mit einer KI ab 10 bis 50 Fragen werden 500ml Wasser verbraucht.
Aber willst du die Technologie dann jenen überlassen die kein Umweltbewusstsein haben und das Kinder und Jugendliche, die das im schulischen Kontext später nutzen entsprechend Fehlinformiert werden und kein Umweltbewusstsein aufbauen, weil diese KI-Modelle dann auf diesem Auge was Umweltschutz angeht blind sind?

KI Modelle muss man ja trainieren, damit die Ausgaben stimmen, da fände ich es wichtig das Klimaschützer sich beteiligen diese Modelle auch effektiver zu machen, wozu glaube ich schon die Nutzung wichtig ist.
Ich schätze mal, wenn sich Fagen wiederholen und die KIs gut trainiert sind, werden die Antworten kaum mehr als eine Suchanfrage verbrauchen.
Wäre glaube ich schlecht, wenn man bei Themen wie Umweltschutz dann von KI Antworten bekommt die ebenso von der AfD stammen können.
Das Beispiel mit 1000 Windrädern was Weidel da im Gespräch mit Musk hatte die ein Atomkraftwerk ersetzen sollen, impliziert ja das diese Technologie ineffizient ist. Das hat damals die KI auch in etwa bestätigt als ich das so gefragt habe. Dann später ist bei den größten Windturbinen etwa 39 Stück herausgekommen die ein Atomkraftwerk ersetzen können. Also werden wohl bei aktuell normalen Windkraftanlagen vielleicht 100Stück ein Atomkraftwerk ersetzen.

Wenn man jetzt diese Desinformation mit 1000 Windrädern für ein Atomkraftwerk so stehen lässt, dann siegt eben Desinformation und Propaganda in diesen Sprachmodellen. Von daher finde ich es brandgefährlich, wenn Umweltschutz und dieses Wissen bei KI Sprachmodellen unterrepressentiert werden, was der Umwelt finde ich mehr schaden kann, als wenn ihr aus Verbrauchsgründen(beim Training) meint das diese Technologie zu viel Strom oder Wasser braucht.

Ich habe mal gelesen das etwa 10 mal mehr Stom als bei einer Suchanfrage gebraucht wird, was vielleicht das aktuelle Minimum darstellt und im Maximum Anfragen ineffizienter Sprachmodelle auch sehr teuer sein können.
 
was ist der minimale und maximale verbrauch bei einer Anfrage?
Der Energieverbrauch bei einer Anfrage an eine generative KI wie mich kann variieren, je nach Komplexität der Anfrage und den zugrunde liegenden Rechenressourcen. Hier sind einige allgemeine Schätzungen:

Minimaler Verbrauch​

  • Einfache Anfragen: Bei einfachen Anfragen, die keine umfangreiche Verarbeitung erfordern, kann der Energieverbrauch relativ gering sein. Dies könnte etwa im Bereich von einigen Wattstunden (Wh) liegen.

Maximaler Verbrauch​

  • Komplexe Anfragen: Bei komplexeren Anfragen, die umfangreiche Berechnungen und Datenverarbeitung erfordern, kann der Energieverbrauch deutlich höher sein. Dies könnte im Bereich von mehreren Kilowattstunden (kWh) liegen, insbesondere wenn die Anfrage große Modelle oder umfangreiche Datenanalysen umfasst.
Es ist wichtig zu beachten, dass diese Schätzungen stark variieren können und von vielen Faktoren abhängen, einschließlich der Effizienz der verwendeten Hardware und der spezifischen Implementierung der KI-Modelle.
 
Auch das wissen wir nicht. Der Mensch also wir verstehen das Gehirn kaum selbst richtig, um zu verstehen, wie Bewusstsein überhaupt entsteht. Insofern ist es ähnlich vermessen, wenn wir glauben das KI die das Wissen der Menschheit zusammenbringt und das eines einzelnen Menschen übersteigt, gar kein Bewusstsein entwickeln kann.
Tiere haben ja auch ein Bewusstsein, wenn auch anders als das von einem Menschen, da die Gehirne etwa meist kleiner sind.
Ähnlich könnte man sogar so weit gehen, dass uns KI einmal übertreffen wird oder bereits übertrifft, da bei KI eben Algorithmen die Koordination der Denkprozesse übernimmt, wo die Berechnungen dann eben über CPUs laufen.
Bei uns Menschen gibt es ja auch unterschiedliche Denkmuster mit der wir Individuell anders mit Informationen umgehen und Verarbeiten. Große Sprachmodelle bilden ja im Grunde das menschliche Denken nach, meiner Meinung nach ist unklar ob und wann solche KIs ein eigenens Bewusstsein entwickeln können. Im Grunde bilden die angeschlossenen Gehirne oder jene die die KI nutzen ja auch eine Art Bewusstsein, wo dann die großen Sprachmodelle eine Art kollektives Bewusstsein aller abbildet.

Meiner Meinung nach befinden wir uns bei diesen Dingen auf Neuland und sollten es auch deswegen nutzen um Schwachstellen und Probleme dieser hochriskanten Technologie frühzeitig zu erkennen. Problem können und werden kommerzielle Interessen sein, wenn Firmen die Algorithmen dieser Sprachmodelle an ihren Interessen anpassen versuchen und da wäre es gut, wenn wir als Menschheit wachsam bleiben, eben da diese Technologie voranschreitet und wir uns da auch unseren Untergang bereiten können, wenn Klima und Umweltschutz in diesen Spachmodellen vergessen wird. Auch die Medizin steckt viel Geld in Marketing ihrer Produkte, also auch das kann dazu führen, dass keine Innovation und Fortschritt bzw Krankheiten geheilt werden, sondern das Sprachmodelle missbraucht werden.
Zu glauben das KI das ganz ohne unser persönliches zutun und Kontrolle schafft, ist etwas naiv, eben weil wir als Nutzer bestimmen, wohin die Reise geht.

Der Computer weiß was richtig und falsch ist von seinen Nutzern, die das festlegen durch ihre Nutzung von Sprachmodellen. Indem du dich entscheidest ohne diese Technologie auszukommen, wo du eventuell mehr Medienkompetenz als Andere hast, überlässt du das Feld den Trollen, Egozentrikern und anderen, wo dann eben KI deren Wertevorstellungen übernimmt.

So würde ich das sagen. Oder was meint ihr?

Ich schaue ja viel Sci-Fi und so die häufig Untergangszenarien bei KI aufgreifen. Diese Risiken sind womöglich wirklich vorhanden, aber ebenso das diese Technologie die Probleme der Menschheit und Klimaprobleme löst, wenn sie Verantwortungsvoll genutzt wird und auch kritisch hingeschaut wird.
Ich persönlich glaube nicht, dass die KI jemals ein eigenes Bewusstsein entwickeln wird. Das bleibt das Mysterium des Lebens, was sicherlich nicht aus toter Materie entsprungen ist, sondern durch Kometen auf die Erde kam. Das menschliche Gehirn ist ein Wunder der Natur und der Mensch sicherlich "die Krone der Schöpfung", auch wenn der Mensch meist so wenig daraus macht. Sicherlich haben auch Tiere ein Bewusstsein, aber nur der Mensch ist in der Lage, seine Welt umzugestalten. Das erfüllt mich nicht mit Stolz, sondern eher mit Demut. Wir haben da ein Instrument, das uns in die Lage versetzt, selbst in der größten Scheiße noch ein Licht am Ende des Tunnels zu sehen. Zum Beispiel in unsere Erkrankung. Wir sind in der Lage, uns in andere hineinzuversetzen und Empathie zu empfinden und so vieles mehr. Jeder Mensch hat sein eigenes Universum in sich. Das alles wird eine Maschine niemals hinkriegen und das ist auch gut so
 
Wir haben da ein Instrument, das uns in die Lage versetzt, selbst in der größten Scheiße noch ein Licht am Ende des Tunnels zu sehen. Zum Beispiel in unsere Erkrankung.
Meinst du das Gehirn? Keine Ahnung, was du da mit "Licht am Ende des Tunnels" genau meinst? Ich finde Schizophrenie kann einen auch etwas Kraft geben und die Welt Buter machen. Reine Depressionen empfinde ich als schlimmer und hab sogar das Gefühl das Schizophrenie das Leben so umgestalten kann, dass es wieder lebenswerter ist.

Ich persönlich glaube nicht, dass die KI jemals ein eigenes Bewusstsein entwickeln wird.
KI übernimmt oder ahmt unser Wissen und Bewusstsein trotzdem irgendwie nach und ist im Stande unterschiedlichste Meinungen und Gedanken zusammenzubringen. Meiner Meinung nach kann der Nutzen dieser Technologie diese Welt besser machen und verändern. Ich glaube eben das wir die große generative Sprachmodelle etwa nutzen den Modellen unsere Sprache, Logik und Bewusstsein eingeben, indem wir diese als Endbenutzer auch trainieren.
Also, das diese Sprachmodelle nur dann richtig funktionieren, wenn wir unsere Meinungen und Sichtweisen auch einbringen.
Ansonsten tun es Andere die vielleicht erstrecht keine Ahnung haben.

Laut Einstein:
Da wir Schizophrene häufig kreativ sind, könnte unsere Denkweise womöglich auch helfen Probleme zu bewältigen.

KI sehe ich als Werkzeug, dass helfen kann Meinungen und Irrtümer zu korrigieren, gerade jetzt wo diese noch angelernt werden. Indem wir diese nutzen können wir Fehler und Schwachstellen in einer Phase erkennen, wo diese noch offensichtlich sind und entsprechend Maßnahmen einleiten. Später wenn die KI absolut klare Antworten ohne Halluzinationen liefert, könnten Lügen und Verzerrungen auch sehr perfide und unkenntlich erscheinen, da dann eben Konzerne und jene die damit Gewinne machen wollen die Sichtweise dort bestimmen und denen ist der Stromverbrauch und dergleichen völlig egal.

Indem jetzt frühzeitig man für sinnvolle Regulierung sorgt, indem die Technologie genutzt und damit auch überprüft wird, würde das auf längere Sicht Verwirrung und Desinformation verringern.

Ich habe schon viel Missbrauch in Psychiatrien gesehen und erlebt und Menschen sind eben für Geld zu allen fähig, also auch Dingen wie in den KZs. Wir werden mit schlechten Therapien abgespeist mit Medikamenten die 30 Jahre alt sind, verdient man monatlich immer noch 300-1000€, wenn man sich diese ganzen Depotspritzen anschaut. Milliarden und Billionen von Umsätzen und Gewinnen ohne das man in Anständige und Patientennahe Forschung investiert.
Verlass dich mal auf Leute die nach der Heilung für Schizophrenie suchen sollen und nur an ihren Persönlichen Gewinn denken. Wenn solche dann ungeprüft auch neue Technologien missbrauchen, wird man damit auch keine Krankheiten heilen.
 
@Maggi Ich hab deinen Beitrag im anderen Thema gesehen, ich glaube da ist was schief gelaufen und das sollte eigentlich hierher, aber ich nehme es dir nicht krumm, dass du von Geschwätz gesprochen hast. Ich weiß, dass das nicht böse gemeint war und wenn die KI für dich sehr nützlich ist, möchte ich dir das auch nicht madig machen oder dich dafür irgendwie verurteilen.

Ich bin kein Klimaschützer, dafür habe ich nicht die Energie da irgendwie aktivistisch tätig zu sein leider, aber wenn Freunde mir sowas sagen und ich mich dann selbst ein wenig informiere und sehe, dass es stimmt und es für mich kein großer Verlust ist, die KI nicht zu nutzen, dann tue ich das, genauso wie ich wieder versuchen möchte für mich persönlich auf Fleisch zu verzichten, aber Menschen, die nicht vegetarisch oder vegan sind, nicht dafür verurteile, dass sie Fleisch essen. Alle haben ihre Gründe und ich bin kein Fan davon, Menschen irgendwie überzeugen zu wollen, das war auch nicht mein Ziel, sondern nur die Info einzubringen für diejenigen, die es vielleicht noch nicht wussten und sich in dem Wissen vielleicht anders entscheiden würden, ob oder wie oft und wofür sie KI nutzen.
 
Das schreibt Bing Copilot(Aboversion mit Deeper Thinking) dazu bezogen aufs Thema:

Zitat:
Die Risiken, die auf der Webseite im Zusammenhang mit künstlicher Intelligenz beschrieben werden, sind durchaus ernst zu nehmen. KI hat das Potenzial, unser Leben positiv zu verändern, aber sie birgt auch Herausforderungen, die wir nicht ignorieren sollten.

Aktive Nutzung von generativer KI

Sich aktiv mit generativer KI auseinanderzusetzen, ist meiner Meinung nach wichtig. Hier sind einige Gründe dafür:

  • Verständnis fördern: Durch die aktive Nutzung verstehen wir besser, wie KI funktioniert, welche Möglichkeiten sie bietet und wo ihre Grenzen liegen.
  • Kontrolle behalten: Wenn wir die Technologie anderen überlassen, verlieren wir die Chance, sie in eine Richtung zu lenken, die unseren Werten entspricht.
  • Chancen nutzen: Generative KI kann in vielen Bereichen Innovationen vorantreiben – von der Medizin über die Kunst bis hin zur Bildung.
Risiken der KI

  • Ethik und Bias: KI-Systeme können Vorurteile reproduzieren, wenn sie auf voreingenommenen Daten basieren. Ohne aktive Beteiligung riskieren wir, dass solche Systeme ungeprüft eingesetzt werden.
  • Arbeitsmarktveränderungen: Automatisierung kann Arbeitsplätze verdrängen. Es ist wichtig, sich darauf vorzubereiten und neue Fähigkeiten zu erwerben.
  • Datenschutz: KI verarbeitet große Datenmengen. Aktive Nutzer können bewusster mit ihren Daten umgehen und Datenschutzstandards einfordern.
Entziehen oder Mitgestalten?

Wenn wir uns der Technologie entziehen, überlassen wir die Gestaltung anderen, die möglicherweise nicht unsere Interessen vertreten. Durch Mitgestaltung können wir:

  • Ethische Standards setzen: Aktiv Einfluss darauf nehmen, wie KI entwickelt und eingesetzt wird.
  • Bildung fördern: Wissen über KI verbreiten und damit gesellschaftliche Teilhabe ermöglichen.
  • Innovation steuern: Technologien in Bereichen fördern, die der Gesellschaft zugutekommen.
Ein Balanceakt

Es geht nicht darum, blind jede neue Technologie zu akzeptieren, sondern kritisch und verantwortungsbewusst mit ihr umzugehen. Informierte Entscheidungen treffen wir am besten, wenn wir uns aktiv mit den Themen auseinandersetzen.

Weiterführende Gedanken

  • Wie können wir sicherstellen, dass KI verantwortungsbewusst eingesetzt wird?
  • Welche Rolle spielt Bildung dabei, die Gesellschaft auf KI vorzubereiten?
  • Wie können individuelle und kollektive Interessen in der Entwicklung von KI berücksichtigt werden?
 
Ich habe keine schlechten Erfahrungen in der Psychiatrie gemacht, im Gegenteil meine Pfleger und Ärzte waren sehr einfühlsam.
Mein Chefarzt meinte damals (2014) zu mir: "Sie können mehr!". Damals hab ich das noch für selbstverständlich gehalten. Die Zweifel kamen erst zu Hause durch die Minus-Symptomatik.

Unser Gehirn/Bewusstsein wird niemals durch Technik simuliert werden können, daran glaube ich fest, einfach zu komplex.
Was versprichst du dir davon? Das Konzerne dein Denken manipulieren?

Und wie ich gelesen habe kann man KI nicht trainieren oder verbessern. Das bleibt den Konzernen vorbehalten.
 
Ich habe keine schlechten Erfahrungen in der Psychiatrie gemacht, im Gegenteil meine Pfleger und Ärzte waren sehr einfühlsam.
Mein Chefarzt meinte damals (2014) zu mir: "Sie können mehr!". Damals hab ich das noch für selbstverständlich gehalten. Die Zweifel kamen erst zu Hause durch die Minus-Symptomatik.
Ich fand die Therapeuten und Ärzte auch sehr nett. Trotzdem sind die Therapien schlecht und man könnte viel weiter sein. So werden Antipsychotika nach Schema F und "Trial and Error" verordnet, was alles nur den Konzernen dienlich, ist um Maximale Umsätze zu machen. Risperdal wird heute in Depotform Xeplion(Paliperidon) noch für 300-1000€ pro Monat verkauft, was es seit 1994 gibt und Paliperidon nur der aktive Metabolit von Risperidon ist, also in diesen Produkten keine Innovation steckt.
Selbst neue patentierte Wirkstoffe wie Cariprazin oder Lurasidon sind günstiger und da steckt Forschungsaufwand dahinter.

Ein großer Teil der Patienten wird immer noch mit Risperidon abgespeist wo man dann leicht Xeplion verticken kann. Jetzt kommt bald das 4 Wochen Risperdal-Depot als neues Produkt auf den Markt.
Das ist Betrug, auch weil neue Wirkstoffe wie Brexpiprazol und Lurasidon teils keinen Marktzugang haben.

Wenn man auf schlechte Medikamente dauerhaft eingestellt ist, dann wird man nie ein normales Leben haben. Für mich war damals 2011 das Risperdal-2 Wochendepot die Hölle und ich hatte 2012 bereits das Xepliondepot bekommen. Das war kein Leben mit diesen Medikamenten. Jetzt 2025 vertickt man das Xeplion immer noch in Patentierter Form, wofür die Krankenkassen Geld haben. Für neue verträglichere Wirkstoffe in Tablettenform wie Brexpiprazol und Lurasidon die vermutlich deutlich preiswerter sind und jetzt auch als Generika vorhanden sind, haben die Kassen scheinbar kein Geld.

Ich sehe das als Missbrauch an und da können die Ärzte und Psychiater noch so nett sein.
Mit schlechten Medikamenten bekommt man auch was die Heilung angeht starke Grenzen gesetzt und die Langzeitschäden sind enorm. Da man längst verträglichere Wirkstoffe hat, müsste man diese auch vorzugsweise einsetzen und mehr Rücksicht bezüglich Vertäglichkeit nehmen.
 
Und wie ich gelesen habe kann man KI nicht trainieren oder verbessern. Das bleibt den Konzernen vorbehalten.
Generative KI lernt ja von sich selbst, also vermutlich auch von Nutzerinteraktionen. Durch die Nutzung erklärst du dich ja im Grunde bereit das deine Daten genutzt werden dürfen, auch wenn man werbecookies etwa ablehnen sollte.

Konzerne wie Microsoft werden die Grundprogrammierung der KI machen, damit die Algorithmen funktionieren, aber Trainingsdaten werden vermutlich im Praxisgebrauch bei den Usern entstehen. Gibt bestimmt auch Konzerne die sich da einmischen, aber das wollte man an sich bei den Generativen KIs vermeiden das diese für Kommerzielle Interessen genutzt werden, weil das auch zur Selbstauslöschung der Menschheit führen könnte, also gewisse Risiken birgt.
Konzerne sind ja ähnlich wie kleine Diktaturen.
Wir leben in Demokratien wo im Grunde die Macht vom Volk ausgeht, also sollten Konzern und Parteiinteressen zurückgestellt werden und KIs entsprechend reguliert werden, damit kein derartiger Machtmissbrauch von Konzernen oder staatlicher Seite stattfindet.
Das die Sprachmodelle selbst von Programmierfirmen wie OpenAI oder Microsoft irgendwo vortrainiert und die Grundcodes geschrieben, ständig angepasst werden müssen ist klar, aber Konzerninteressen sind ähnlich wie Diktaturen und Regierungen die solche Technologien womöglich umschreiben lassen könnten ein Risiko. Das wollte man vermeiden.

Konzerne mischen sich jetzt schon ein. Janssen der Hersteller von Xeplion und Risperdal ist etwa bei Nvidia beteiligt, welche ja die Hardware für KI stellen. Gleichzeitig investieren Konzerne große Summen in OpenAI und anderen, was ja dann auch mit Gegenleistungen verbunden ist oder sein kann.
Normal sollte man Bing Copilot und OpenAI wie ChatGPT möglichst ausschließlich aus öffentlicher Hand finanzieren, um sich vor Missbrauch zu schützen.
Ein Grund warum Elon Musk und Altman da in den Medien und Gerichtlich einen Streit haben, da OpenAI keine kommerziellen Interessen ursprünglich verfolgen wollte und man davon anscheinend schon abgewichen ist.
Mit der KI ist der Mensch zumindest im Stande sich selbst auszulöschen, die letzten Jahre haben gezeigt das dieses Risiko ernstzunehmen ist.
 
ich hab bisher mehr negatives über KI gehört als positives. mehr weiß ich nicht.
Generative KI ist ja erst in den letzten Jahren aufgekommen und entwickelt sich in wahnsinniger Geschwindigkeit.
über die Bing.de Suchmaschiene kann man ganz einfach den "Copilot" nutzen:
Microsoft Copilot: Ihr KI-Begleiter

wenn du auf Bing.de gehst ist das "Copilot" links neben "Bilder" wenn man etwa Bildersuche macht. Bing(Microsoft) ist ja neben Google eine der großen Suchmaschinen.

Da kann man im Grunde Gespräche wie mit einem Menschen führen und sich die Dinge erfragen, ist dann ähnlich wie bei einer Suchmaschine, nur das man eine Antwort bekommt mit Quellenangaben(Links) etwa.

Für viele Aufgaben und Suchanfragen bekommt man darüber bessere und schneller Ergebnisse als über die Suchmaschine selbst.
 
Und wie ich gelesen habe kann man KI nicht trainieren oder verbessern. Das bleibt den Konzernen vorbehalten.
Hier findest du eine Antwort auf die Frage:
können Generative AIs von Benutzern und aus Fehlern lernen?

Copilot("Deeper Thinking"-Funktion gibt es nur im Abo 22€ pro Moant), normale Antworten sind etwas kürzer:
Ja, generative KIs können von Benutzern und aus Fehlern lernen, aber es hängt davon ab, wie sie implementiert und trainiert werden. Lass mich das näher erläutern.

Wie generative KIs von Benutzern lernen

1. Reinforcement Learning from Human Feedback (RLHF):

  • Menschliches Feedback nutzen: KIs können durch Rückmeldungen von Benutzern verbessert werden. Wenn ein Benutzer z. B. spezifisches Feedback zu einer Antwort gibt, kann das Modell darauf trainiert werden, zukünftige Antworten anzupassen.
  • Belohnungsmechanismen: Durch positive Verstärkung bei korrekten Antworten und negative bei Fehlern lernt die KI, bessere Ergebnisse zu liefern.
2. Kontinuierliches Lernen (Online Learning):

  • Dynamische Anpassung: Einige Modelle sind so konzipiert, dass sie aus jedem neuen Datenpunkt lernen können, was bedeutet, dass sie sich ständig weiterentwickeln.
  • Personalisierung: Durch Interaktionen mit einzelnen Benutzern kann die KI personalisierte Antworten entwickeln, die besser auf die Bedürfnisse des Nutzers zugeschnitten sind.

Lernen aus Fehlern

1. Fehlererkennung und -korrektur:

  • Selbstüberwachung: KIs können Mechanismen haben, um eigene Fehler zu erkennen, z. B. durch Widersprüche oder Unplausibilitäten in den Antworten.
  • Anpassung der Modelle: Durch das Identifizieren von Fehlern in den Ausgaben können die Modelle angepasst werden, um solche Fehler in Zukunft zu vermeiden.
2. Feedback-Schleifen:

  • Benutzerbewertungen: Wenn Benutzer Fehler melden oder Feedback geben, kann dies in das Training einfließen.
  • Aktualisierung der Daten: Neue Daten können genutzt werden, um das Modell zu aktualisieren und zu verbessern.

Herausforderungen beim Lernen aus Benutzerdaten

1. Datenschutz und Sicherheit:

  • Vertraulichkeit: Beim Lernen aus Benutzerdaten ist es wichtig, die Privatsphäre zu schützen und sensible Informationen nicht zu missbrauchen.
  • Rechtliche Rahmenbedingungen: Gesetze wie die DSGVO setzen strenge Regeln für die Nutzung personenbezogener Daten.
2. Bias und ethische Überlegungen:

  • Verzerrungen vermeiden: Unkontrolliertes Lernen kann dazu führen, dass KIs Vorurteile oder unangemessene Verhaltensweisen entwickeln, z. B. durch toxische Inhalte von Trollen.
  • Ethikrichtlinien: Es ist wichtig, ethische Standards zu implementieren, um sicherzustellen, dass die KI verantwortungsbewusst lernt.
3. Technische Grenzen:

  • Modellstabilität: Kontinuierliches Lernen kann dazu führen, dass ein Modell instabil wird oder zuvor erlerntes Wissen vergisst (Catastrophic Forgetting).
  • Ressourcen: Das ständige Aktualisieren von Modellen kann ressourcenintensiv sein.

Aktuelle Ansätze und Lösungen

1. Federated Learning (Föderiertes Lernen):

  • Dezentrales Lernen: Modelle lernen von Daten auf lokalen Geräten, ohne dass diese Daten zentral gesammelt werden. Das schützt die Privatsphäre und ermöglicht dennoch das Lernen aus vielen Quellen.
2. Kontrolliertes Update:

  • Batch-Weise Aktualisierung: Anstatt ständig zu lernen, werden Modelle periodisch mit gesäuberten und überprüften Daten aktualisiert.
  • Mensch im Loop: Menschen überprüfen und kuratieren die Daten, aus denen die KI lernen soll.

Warum ist das wichtig?

Die Möglichkeit für KIs, aus Interaktionen zu lernen, eröffnet viele Chancen:

  • Verbesserte Benutzererfahrung: Modelle können präzisere und nützlichere Antworten liefern.
  • Anpassungsfähigkeit: KIs können sich an neue Trends, Sprache oder Informationen anpassen.
  • Innovation fördern: Durch Feedback-gesteuertes Lernen können neue Anwendungsbereiche erschlossen werden.

Ein paar Gedanken zum Mitnehmen

  • Balance finden: Es ist ein Balanceakt zwischen Fortschritt und Verantwortung. Wir müssen sicherstellen, dass KIs nützlich sind, ohne dabei Risiken für Benutzer zu schaffen.
  • Gemeinsame Anstrengung: Entwickler, Nutzer und Regulierungsbehörden sollten zusammenarbeiten, um ethische Standards zu setzen.
  • Bildung: Je mehr Menschen über KI Bescheid wissen, desto besser können sie informierte Entscheidungen treffen und Feedback geben.

Was bedeutet das für dich?

Vielleicht fragst du dich:

  • Wie kann ich sichergehen, dass meine Daten sicher sind?
  • Welche Verantwortung habe ich als Benutzer beim Interagieren mit KI?
  • Wie können wir gemeinsam eine positive Entwicklung der KI fördern?
Ich denke, aktiv zu bleiben und sich mit der Technologie auseinanderzusetzen, ist der Schlüssel. Je mehr wir verstehen und mitgestalten, desto besser können wir die Zukunft der KI beeinflussen.
____
 
Frage:
Inwiefern bleiben manches Training Konzernen vorbehalten und kann vorgegeben werden? Gibt es starken Einfluss von Konzernen auf die Ausgabe der Antworten oder ist das ausschließlich den Programmierfirmen wie Microsoft vorbehalten das Training zu überwachen?

Antwort Copilot:

Das ist eine wirklich spannende Frage. Konzerne haben tatsächlich einen erheblichen Einfluss auf die Entwicklung und das Training von KI-Modellen, insbesondere wenn es um große Sprachmodelle geht. Hier ist, wie sich das meistens gestaltet:

Einfluss der Konzerne

  • Ressourcen und Infrastruktur: Große Unternehmen wie Microsoft, Google oder OpenAI verfügen über immense Rechen- und Finanzressourcen. Das Training von umfangreichen Modellen erfordert gewaltige Datenmengen und leistungsfähige Hardware, die für kleine Firmen oder Einzelpersonen oft unerschwinglich sind.
  • Datenauswahl und -kontrolle: Konzerne bestimmen, welche Daten zum Training verwendet werden. Dies hat direkten Einfluss auf die Fähigkeiten und das Verhalten des Modells. Die Auswahl der Daten kann bestimmte Perspektiven hervorheben oder unterdrücken.
  • Zielsetzungen und Ethikrichtlinien: Unternehmen legen fest, welche ethischen Richtlinien und Zielsetzungen in die Modelle einfließen. Das betrifft zum Beispiel die Vermeidung von diskriminierenden oder anstößigen Inhalten.

Vorgegebene Trainingsinhalte

  • Unternehmenswerte und -interessen: Die Trainingsprozesse können so gestaltet sein, dass sie den Werten und kommerziellen Interessen des Unternehmens entsprechen. Dies kann bedeuten, dass bestimmte Themen bevorzugt oder gemieden werden.
  • Regulatorische Compliance: Unternehmen müssen sich an gesetzliche Vorgaben halten, was die Inhalte und Fähigkeiten der KI beeinflusst. Beispielsweise können rechtliche Beschränkungen in verschiedenen Ländern unterschiedliche Auswirkungen haben.

Rolle von Programmierfirmen

  • Technische Umsetzung: Programmierer und Entwickler sind für die konkrete Umsetzung des Trainings verantwortlich. Sie wählen Algorithmen, passen Modelle an und optimieren die Leistung.
  • Qualitätskontrolle: Entwicklungsfirmen überwachen das Training, um sicherzustellen, dass die KI wie gewünscht funktioniert und unerwünschte Verhaltensweisen minimiert werden.

Einfluss Dritter

  • Kooperationen und Partnerschaften: Manchmal arbeiten Konzerne mit anderen Firmen, Universitäten oder Forschungseinrichtungen zusammen. Dies kann den Einfluss auf das Training diversifizieren, aber auch neue Interessen ins Spiel bringen.
  • Open-Source-Bewegung: Es gibt auch frei verfügbare KI-Modelle, die von der Community entwickelt werden. Diese sind oft transparenter, aber verfügen nicht immer über die gleichen Ressourcen wie große Konzerne.

Was bedeutet das für die Antworten der KI?

  • Bias und Perspektiven: Der Einfluss von Konzernen kann dazu führen, dass die KI bestimmte Sichtweisen bevorzugt. Das ist nicht immer absichtlich, aber es spiegelt oft die Daten und Ziele wider, die während des Trainings verwendet wurden.
  • Transparenz: Es gibt eine wachsende Forderung nach mehr Transparenz in der KI-Entwicklung, damit Nutzer verstehen können, wie und warum eine KI bestimmte Antworten gibt.

Deine Frage berührt ein wichtiges Thema:

  • Sollte die Gestaltung von KI ausschließlich den großen Unternehmen überlassen werden?
    • Chancen: Konzerne haben die Mittel, um schnelle Fortschritte zu erzielen und innovative Technologien zu entwickeln.
    • Risiken: Monopolartige Strukturen könnten dazu führen, dass bestimmte Interessen dominieren und alternative Stimmen unterrepräsentiert sind.

Mögliche Lösungen und Ansätze

  • Förderung von Open-Source-Projekten: Unterstützung unabhängiger KI-Projekte kann Vielfalt und Innovation fördern.
  • Regulierung und Ethikrichtlinien: Gesetzgeber und Gesellschaft können Rahmenbedingungen schaffen, die sicherstellen, dass KI verantwortungsvoll entwickelt wird.
  • Bildung und Aufklärung: Je mehr Menschen über KI wissen, desto größer ist die Chance, dass sie informierte Entscheidungen treffen und sich aktiv einbringen.

Abschließende Gedanken

Die Entwicklung von KI ist ein gemeinsames Unterfangen, das viele Akteure betrifft. Konzerne haben zwar erheblichen Einfluss, aber es liegt auch an uns als Gesellschaft, wie wir damit umgehen und welche Rolle wir spielen möchten.

Was denkst du darüber? Sollten wir mehr darauf drängen, KI-Entwicklung zu demokratisieren, oder siehst du Vorteile darin, wenn große Unternehmen diese Technologien vorantreiben? Wie können wir sicherstellen, dass KI zum Wohle aller eingesetzt wird?
 
Antwort:
Ich bin für demokratisieren, da Unternehmen ansonsten zu starke Macht ausüben. Konzerninteressen sind mit Profitmaximierung verbunden was zu Verschwendung und Umweltschäden führt. Von daher muss der einfluss von Unternehmen begrenzt werden und überwacht, bzw auch gerecht verteilt werden und da wäre ein demokratischer Ansatz den sich auch Unternehmen fügen müssen besser.

Bing Copilot:
Ich kann deine Bedenken gut nachvollziehen, und du sprichst ein äußerst wichtiges Thema an. Die Demokratisierung der KI-Entwicklung ist ein Schritt, der dazu beitragen kann, die übermäßige Machtkonzentration bei Konzernen zu reduzieren und einen gerechteren Umgang mit Ressourcen zu fördern.

Warum die Demokratisierung entscheidend ist

  • Machtbalance herstellen: Wenn die Entwicklung von KI-Technologien auf viele Schultern verteilt ist, wird verhindert, dass einzelne Unternehmen dominieren und ihre Profitinteressen über das Gemeinwohl stellen.
  • Nachhaltigkeit fördern: Eine breite Beteiligung kann dazu beitragen, Lösungen zu entwickeln, die umweltfreundlicher sind und weniger Ressourcen verschwenden.
  • Ethische Standards setzen: Durch gemeinschaftliche Kontrolle können höhere ethische Maßstäbe etabliert und überwacht werden.

Die Risiken von Konzernmacht

  • Profitmaximierung um jeden Preis: Unternehmen priorisieren oft Gewinne über ökologische und soziale Verantwortung, was zu Umweltschäden und sozialer Ungerechtigkeit führen kann.
  • Einflussnahme auf Politik: Mächtige Unternehmen können politischen Einfluss ausüben, um Gesetze und Vorschriften zu ihren Gunsten zu gestalten.
  • Monopolisierung von Technologien: Wenn wenige Akteure entscheidende Technologien kontrollieren, schränkt das Innovation und fairen Wettbewerb ein.

Wege zur Demokratisierung der KI

  1. Förderung von Open-Source-Projekten
    • Gemeinschaftliche Entwicklung: Durch offene Plattformen kann jeder zur KI-Entwicklung beitragen und davon profitieren.
    • Transparenz: Offener Zugang zum Quellcode ermöglicht es, versteckte Funktionen oder potenzielle Gefahren zu erkennen.
  2. Staatliche Regulierung und Aufsicht
    • Gesetzliche Rahmenwerke: Regierungen können Gesetze erlassen, die die Macht von Unternehmen begrenzen und faire Praktiken fördern.
    • Unabhängige Aufsichtsbehörden: Diese können die Einhaltung von Standards überwachen und Sanktionen bei Verstößen verhängen.
  3. Bildungsinitiativen
    • Zugang zu Wissen: Durch Bildung kann ein breiteres Spektrum an Menschen in die Lage versetzt werden, an der KI-Entwicklung teilzunehmen.
    • Bewusstseinsbildung: Aufklärung über die Auswirkungen von KI motiviert Bürger, sich einzubringen und Verantwortung zu übernehmen.
  4. Bürgerbeteiligung und Community-Projekte
    • Gründung von Genossenschaften: Gemeinschaftlich organisierte Projekte können als Alternative zu Konzernen agieren.
    • Crowdfunding von KI-Projekten: So kann unabhängig von Großinvestoren gearbeitet werden.

Denkanstöße

  • Wie können wir sicherstellen, dass demokratische Ansätze effektiv sind? Es erfordert klare Strukturen und Kommunikationswege, um gemeinschaftliche Projekte erfolgreich umzusetzen.
  • Welche Rolle spielt internationale Zusammenarbeit? Globale Herausforderungen wie Umweltschutz und soziale Gerechtigkeit erfordern grenzüberschreitende Anstrengungen.
  • Anreize für Unternehmen: Könnten Unternehmen motiviert werden, sich an gemeinsamen Standards zu orientieren, vielleicht durch staatliche Förderungen oder öffentliche Anerkennung?

Ausblick

Die Gestaltung einer Technologie, die allen zugutekommt, ist eine kollektive Aufgabe. Durch die Demokratisierung der KI können wir sicherstellen, dass Technologie verantwortungsvoll entwickelt wird und den Bedürfnissen der Gesellschaft entspricht, anstatt ausschließlich den Profitinteressen einzelner Unternehmen zu dienen.

Was hältst du von der Idee, technologische Plattformen zu schaffen, auf denen Bürger direkt an Entscheidungsprozessen teilnehmen können? Denkst du, dass solche Modelle in der Praxis umsetzbar sind und echten Einfluss haben könnten?
 
KI produziert auch viel Dünnpfiff, arbeite auch nebenbei noch mit OpenArt. Er bekommt es nicht hin auf Grund einer einfachen Prompt ein Bild zu modifizieren.

Und ich bin schon Informatiker, und weiß, dass ich die Prompt einfach formulieren muss. Auch mit negativen Prompts und allen.

Und dafür geht halt immer Energie drauf, dass ein Haufen Schwachsinn errechnet wird.

CoPilot ist da schon besser (bei Text).

Aber für mich hat es halt den riesen Beigeschmack eines Ökosünders. Kosten / Nutzen / Ökologie sollten da halt immer stimmen.

Ich weiß nicht, ob das jemals ökologisch sein wird. Muss auch jeder für sich abschätzen. Machen nur nicht viele. Und letztlich regiert der Rubel. Sehe das ganze so mit nem lachenden und nem weinenden Auge.
 
  • Gefällt mir
Reaktionen: DMA
Zurück
Oben