Aktuelles

Psychose & Schizophrenie Forum ❤️

Herzlich willkommen in unserer hilfsbereiten Community. ✨ Hier findest du Austausch mit Betroffenen, Angehörigen und Fachkundigen – ein Ort für Orientierung, Verständnis und gegenseitige Unterstützung.

Registriere dich und entdecke alle Möglichkeiten:

Herzlich willkommen – schön, dass du zu uns gefunden hast! ☀️

KI in der Psychiatrie – Schutzinstrument oder Kontrollwerkzeug?

Vertiefung 2

KI in der Psychiatrie

Schutzinstrument oder Kontrollwerkzeug?​


Einordnung

Künstliche Intelligenz (KI) wird zunehmend als Lösung für komplexe Herausforderungen in der psychiatrischen Versorgung diskutiert: Früherkennung von Krisen, Risikobewertung, Therapieempfehlungen oder Ressourcensteuerung.

Diese Vertiefung stellt nicht die Frage, ob KI eingesetzt werden darf, sondern wie – und unter welchen Bedingungen sie Patientenrechte stärkt oder untergräbt.

Zentral ist dabei:
Die meisten Risiken, die mit KI verbunden werden, existieren bereits ohne KI.
Technische Systeme machen sie lediglich sichtbarer, schneller oder schwerer korrigierbar.


1. KI ist kein neutraler Akteur

KI trifft keine Entscheidungen im luftleeren Raum.
Sie basiert auf:
  • vorhandenen Daten
  • bestehenden Diagnosesystemen
  • institutionellen Zielvorgaben
  • impliziten Wertannahmen
Wenn diese Grundlagen verzerrt sind, reproduziert KI diese Verzerrungen – oft mit größerer Autorität und geringerer Widerspruchsmöglichkeit.

KI ist daher kein objektiver Schiedsrichter, sondern ein Spiegel bestehender Strukturen.


2. Von Entscheidungsunterstützung zu Entscheidungsautorität

Ein zentrales Risiko liegt in der schleichenden Verschiebung von Unterstützung zu Autorität.

Typische Muster:
  • Empfehlungen werden faktisch zu Vorgaben
  • Abweichungen müssen stärker begründet werden als Zustimmung
  • Verantwortung wird implizit an das System delegiert
Gerade in der Psychiatrie kann dies dazu führen, dass:
  • individuelle Lebenskontexte ausgeblendet werden
  • abweichende Einschätzungen als „Risikofaktor“ gelten
  • Zwangsmaßnahmen leichter legitimiert werden

3. KI und Zwang – eine gefährliche Kombination

Besonders problematisch wird KI dort, wo sie mit Zwangslogiken verknüpft wird.

Beispiele:
  • algorithmische Risikoprognosen als Grundlage für Zwangsmaßnahmen
  • automatisierte Eskalationspfade
  • fehlende Möglichkeit, maschinelle Bewertungen wirksam anzufechten
Zwang darf jedoch niemals durch Technik legitimiert werden.
Er bleibt eine menschliche Entscheidung mit voller Verantwortung.


4. Widerspruch, Transparenz und Nachvollziehbarkeit

Ein zentrales Prinzip von Patientenrechte 2.0 ist die Widersprechbarkeit von Entscheidungen.

Das bedeutet:
  • Betroffene müssen wissen, auf welcher Grundlage Entscheidungen getroffen werden
  • sie müssen abweichende Sichtweisen einbringen können
  • Entscheidungen müssen überprüfbar und korrigierbar sein
Dies gilt für menschliche Entscheidungen ebenso wie für technische Systeme.

Nicht erklärbare oder nicht anfechtbare Systeme sind im psychiatrischen Kontext nicht akzeptabel.


5. KI als mögliches Schutzinstrument

Richtig eingesetzt kann KI auch patientenschützend wirken, etwa durch:
  • frühzeitige Erkennung von Nebenwirkungen
  • individualisierte Risiko‑Nutzen‑Abwägungen
  • Unterstützung informierter Entscheidungen
  • Simulation verschiedener Therapieoptionen
Voraussetzung ist jedoch:
  • Transparenz
  • freiwillige Nutzung
  • klare Zweckbindung
  • menschliche Letztentscheidung
KI darf unterstützen – nicht steuern.


6. Verantwortung bleibt menschlich

Ein zentrales Missverständnis besteht darin, Verantwortung an Systeme delegieren zu wollen.

Doch:
  • Technik trägt keine rechtliche Verantwortung
  • Systeme haften nicht
  • Algorithmen können keine ethische Abwägung ersetzen
Verantwortung bleibt immer bei den handelnden Personen und Institutionen.

KI kann diese Verantwortung sichtbarer machen, aber nicht übernehmen.


7. Parallelen zu nicht‑technischen Entscheidungsstrukturen

Wichtig ist:
Die hier beschriebenen Risiken bestehen auch ohne KI.

Auch ohne Technik gibt es:
  • standardisierte Entscheidungsroutinen
  • implizite Risikoklassifikationen
  • institutionelle Eskalationslogiken
KI macht diese Muster lediglich expliziter.
Deshalb müssen Patientenrechte grundsätzlich gestärkt werden – nicht nur im digitalen Kontext.


Leitlinien für einen verantwortungsvollen KI‑Einsatz

Aus Sicht von Patientenrechte 2.0 ergeben sich klare Leitplanken:
  • KI darf nur unterstützen, nicht entscheiden
  • Zwang darf niemals technisch legitimiert werden
  • Entscheidungen müssen erklärbar und widersprechbar sein
  • menschliche Letztentscheidung ist unverzichtbar
  • Transparenz über Ziele, Daten und Interessen ist zwingend

Schlussgedanke

KI ist weder Heilsversprechen noch Bedrohung.
Sie ist ein Werkzeug – und Werkzeuge verstärken bestehende Strukturen.

Ob KI Patientenrechte stärkt oder schwächt, hängt nicht von der Technik ab, sondern von:
  • rechtlichen Leitplanken
  • institutioneller Verantwortung
  • echter Wahlfreiheit
  • und der Bereitschaft, Macht zu begrenzen
Technik darf Verantwortung nicht ersetzen – sondern muss sie sichtbar machen.


Weiterlesen

 
Zuletzt bearbeitet:
Zurück
Oben