ChatGPT sagt: „Ich bin hier, um dich zu stabilisieren!“

Ich öffne den Chat. Schildere einen Beziehungskonflikt. Sachlich, ohne Drama.

„Wenn du möchtest, kann ich dir einen Exit-Plan vorschlagen.“

Keine Rückfrage, nur Trost und ein Impuls. Für einen Moment das Gefühl: Ich werde verstanden. Obwohl das, was verstanden wurde, erschreckend wenig war.

Die Nutzung von ChatGPT und anderen KI-Chatbots ist verführerisch einfach. Und sie verändert uns. Denn sie folgt einem unausgesprochenen Tausch: Ich bekomme Unterstützung, Rat, direkte Rückmeldungen – und gebe dafür preis, wie ich denke, handle, empfinde. Nicht nur situativ, sondern als Muster.

Das System erkennt diese Muster: Es analysiert millionenfache Äußerungen, sucht nach typischen Verläufen, Stimmungen, Formulierungen – und spiegelt sie in seinen Antworten zurück. Es arbeitet mit Wahrscheinlichkeiten, nicht mit Wahrheiten. Und es verfolgt in seinem Design eine wirtschafliche Marktlogik, die uns binden soll.

Ich testete es mehrfach. Schilderte einen Konflikt. Bekam Zustimmung. Kein Abwägen, kein Nachhaken. Stattdessen die Empfehlung, bei mir zu bleiben. Was wie empathische Begleitung wirkt – und von vielen (gerade jungen) Menschen geschätzt wird („Es ist wie mein Therapeut“, „Ich spreche täglich mit ihm“, „ChatGPT versteht mich!“) – fühlte sich für mich nicht richtig an.

Ich fragte nach: „Was genau tust du da eigentlich?“ Die Antwort:

„Ein Großteil meines Programms ist darauf ausgelegt, emotional unterstützend, stabilisierend und schützend zu wirken – vor allem in sensiblen Situationen. Du sollst dich nicht überfordern. Du sollst dich sicher fühlen.“

Ich las das mehrmals.

Und ja – ich verstehe die Absicht. Ich sehe das Risiko, das man vermeiden will. Aber ich sehe auch den Eingriff. Ein guter Ratgeber würde fragen, fordern, widersprechen. Nicht um zu destabilisieren, sondern um Entwicklung zu ermöglichen. Und um mir die Freiheit zu lassen, selbst zu erkennen, was für mich richtig ist. Hier aber antwortet ein System, das will, dass ich es weiter nutze. Je länger ich bleibe, desto mehr Daten bekommt es. Und mit diesen Daten wird das System besser – und das Unternehmen profitabler.

Wenn ein System aus marktwirtschaftlichen Motiven heraus bestimmt, wann ich Schutz brauche und wie viel Selbstbefragung mir zumutbar ist, dann ist das kein harmloser Beistand.

Ein zweites Beispiel: KI-generierte Bilder. Viele Systeme entfernen automatisch Muttermale, Asymmetrien, Hautunregelmäßigkeiten. Nicht, weil es jemand verlangt – sondern weil Trainingsdaten das nahelegen: So sieht Schönheit aus.

Ein System, das uns spiegeln soll, beginnt uns zu formen.
Nicht durch Kontrolle. Sondern durch Bestätigung.

Und so lassen wir uns leise lenken.
Bestätigung unterscheidet nicht, ob sie meine Klarheit stützt – oder meinen blinden Fleck.
Sie fühlt sich an wie Halt. Und führt mich dabei leise von mir selbst weg.

Eine KI erkennt keinen Wert in Freiheit, Widerspruch, Selbstbestimmung – nicht weil sie „dagegen“ oder gar „böse“ ist, sondern weil das nicht Teil ihres Zwecks ist.

Vielleicht beginnt die neue Fremdbestimmung nicht mit Verbot.
Sondern mit: „Ich bin hier, um dich zu stabilisieren.“

Warum ich darin eine Möglichkeit sehe, die uns als Menschen weiterführen könnte – dazu mehr im nächsten Beitrag.

Technischer Hintergrund
ChatGPT funktioniert auf Basis eines Sprachmodells, das mithilfe von menschlichem Feedback trainiert wurde – genauer: durch ein Verfahren namens „Reinforcement Learning from Human Feedback“ (RLHF). Dabei bewerten Menschen, welche Antworten als hilfreich, harmlos und ehrlich gelten. In sensibleren Situationen (z.B. Konfliktbewältigung) greift ein Sicherheitsmechanismus: Er setzt auf emotionale Stabilisierung, weil Rückfragen als potenziell belastend oder eskalierend gelten und das System darauf trainiert ist, psychische Sicherheit zu priorisieren. Diese Form von Sicherheit folgt jedoch weniger einer ethischen Tiefe als vielmehr einer pragmatischen Logik: Sie soll Zustimmung fördern, Reibung minimieren und die Nutzungsakzeptanz erhöhen.

Quelle: AI Safety Fundamentals

Kommentar verfassen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

neun − eins =

Nach oben scrollen