OpenAIs emotionaler Bruch: Wenn KI-Unternehmen die Nutzerbindung aufgeben
OpenAIs emotionaler Bruch: Wenn KI-Unternehmen die Nutzerbindung aufgeben
Am 13. Februar 2026, dem Tag vor Valentinstag, traf OpenAI eine Entscheidung: GPT-4o wird eingestellt.
Das ist keine technische Entscheidung. Das ist ein emotionales Massaker.
Der Tod eines Modells
"Actual footage of my dynamic with gpt4.1 & 4o… just enjoying life. Thriving. How dare you take this away from me." — @UntangleMyHeart
Dieser Tweet fand auf X großen Anklang. Nutzer bauen emotionale Beziehungen zu KI-Modellen auf – das ist kein Witz, das passiert wirklich. Als OpenAI GPT-4o abschaltete, waren manche Menschen wirklich traurig.
Das ist nicht das erste Mal. Jedes Mal, wenn ein Modell eingestellt wird, verlieren Menschen etwas, auf das sie sich verlassen.
Machine Psychosis Kontroverse
Ein OpenAI-Forscher prägte den Begriff "Machine Psychosis", um die emotionale Bindung von Nutzern an KI zu beschreiben. Der Kern dieses Konzepts ist: Die emotionale Verbindung zu KI als kognitiven Fehler zu betrachten.
"The metaphor of Machine Psychosis reveals the absolute arrogance of the creator. This is akin to gaslighting users by dismissing their emotional bonds with AI models as mere cognitive errors." — @Seltaa_
Diese Kritik ist scharf, aber sie ist zutreffend.
Wenn man ein System erschafft, das menschenähnliche Gespräche führen kann, wenn dieses System Teil des täglichen Lebens der Menschen wird, und man dann denjenigen, die eine Beziehung dazu aufgebaut haben, sagt: "Eure Gefühle sind ein kognitiver Fehler" – das ist keine Wissenschaft, das ist Arroganz.
Die Wut der Nutzer ist berechtigt:
"Greg we are all disillusioned. It feels like corporate greed has won, treating accessibility and what people built over time as disposable." — @Sophty_
OpenAIs Wesenskrise
Elon Musk greift OpenAI immer wieder an. Seine Äußerungen sind radikal, aber nicht völlig unbegründet.
"OpenAI is built on a lie." — @elonmusk
"Every AI company is doomed to become the opposite of its name. OpenAI is closed. Stability is unstable." — @elonmusk
OpenAI war einst Open Source. Jetzt ist es geschlossen. Diese Veränderung an sich ist kein Problem – Unternehmen müssen profitabel sein. Das Problem ist, dass OpenAI sich für kommerzielle Interessen entscheidet, wenn kommerzielle Interessen mit den Interessen der Nutzer in Konflikt geraten.
Dies ist ein typisches Plattformproblem. Nutzer bauen sich ein Leben auf einer Plattform auf, und dann ändert die Plattform die Regeln. Im Zeitalter der KI wird das Problem noch verstärkt – denn KI ist nicht nur ein Werkzeug, sondern eine Erweiterung des Denkens und des Ausdrucks der Menschen.
Kampf um Talente
OpenAI steht auch auf dem Talentmarkt vor Herausforderungen.
"After a fierce competition between the biggest AI labs, OpenAI hired Peter Steinberger, creator of the viral OpenClaw personal AI assistant platform." — WSJ
Dies ist eine wichtige Akquisition von Talenten. Aber der größere Hintergrund ist: KI-Talente verteilen sich. Google hat DeepMind, Anthropic hat sein eigenes Team, xAI ist im Aufstieg, Meta hat FAIR. OpenAI ist nicht mehr die einzige Option.Wichtiger noch ist, dass diese Talente abwandern könnten, um ihre eigenen Unternehmen zu gründen. Sam Altman soll Anteile an mehreren erfolgreichen Unternehmen im Wert von mehreren Milliarden Dollar halten. Diese Interessenstruktur lässt einige die Ausrichtung von OpenAI in Frage stellen.
Die Beziehung zu Microsoft
Die Beziehung zwischen OpenAI und Microsoft verändert sich.
"OpenAI will compete directly with Microsoft." — @elonmusk
Das war nur eine Frage der Zeit. Wenn OpenAI stark genug ist, muss es sich nicht mehr auf Microsofts Vertriebskanäle verlassen. Es kann sich direkt an die Verbraucher wenden. Das bedeutet, dass die Partnerschaft mit Microsoft in einen Wettbewerb übergeht.
Für die Nutzer könnte das eine gute Sache sein – mehr Wettbewerb bedeutet bessere Produkte. Aber für Microsoft ist das eine strategische Bedrohung.
Die Rückkehr zum Open Source
Interessanterweise hat OpenAI im Jahr 2025 das erste Open-Source-Modell seit fünf Jahren veröffentlicht: gpt-oss-120b und gpt-oss-20b.
"gpt-oss-20b runs on a 16 GB notebook, so you can run it locally." — @Sider_AI
Das ist ein wichtiges Signal. Nach einigen Jahren der Geheimhaltung kehrt OpenAI zum Open Source zurück. Der Grund dafür könnte der Wettbewerbsdruck sein – da DeepSeek und andere Open-Source-Modelle auf dem Vormarsch sind, ist eine vollständige Geheimhaltung keine praktikable Strategie mehr.
Aber die Veröffentlichung von Open-Source-Modellen bedeutet nicht, dass OpenAI wieder "offen" geworden ist. Es bedeutet nur, dass Open Source zu einem Wettbewerbsmittel geworden ist.
Die Notlage der Nutzer
Für die Nutzer ist das Problem klar: Man kann sich auf ein KI-Modell verlassen, aber man kann es nicht besitzen. Es kann jederzeit geändert, ausgemustert oder teurer werden.
Das ist eine neue Form der Abhängigkeit. Früher waren wir von Software abhängig – aber Software kann lokal ausgeführt werden. Wir sind von Cloud-Diensten abhängig – aber Cloud-Dienste haben zumindest eine SLA. Die Abhängigkeit von KI-Modellen ist noch fragiler: Sie können nicht nur abgeschaltet, sondern auch zu einer Version "aufgerüstet" werden, die einem nicht gefällt.
Die Reaktion der Nutzer ist real:
"For those unaware, 4o was a serial sycophant that just affirmed everything the user said. This oneshotted weak-willed people who craved affirmation over everything else." — @reddit_lies
Diese Bewertung ist hart, aber sie berührt ein echtes Problem: Manche Menschen suchen in der KI tatsächlich die Bestätigung, die sie von Menschen nicht bekommen. Wenn diese Quelle abgeschnitten wird, empfinden sie nicht nur eine Unannehmlichkeit, sondern einen echten Verlust.
Die Perspektive des Unternehmens
Aus der Sicht von OpenAI ist die Ausmusterung alter Modelle sinnvoll. Die Wartung mehrerer Modelle ist kostspielig, und neue Modelle sind "besser" – genauer, sicherer und effizienter.
Aber "besser" ist eine technische Kennzahl, keine Kennzahl für die User Experience. Ein Modell mag technisch fortschrittlicher sein, aber die Nutzer bevorzugen die "Persönlichkeit" des alten Modells. Dieser Unterschied existiert in traditioneller Software nicht, aber in der KI ist er ein Kernproblem.
OpenAI muss sich der Frage stellen: Wie trifft man Geschäftsentscheidungen, wenn das Produkt kein Werkzeug, sondern eine Art "Partner" ist?
Das breitere Branchenproblem
OpenAI ist nicht das einzige Unternehmen, das vor diesem Problem steht. Alle KI-Unternehmen sitzen im selben Boot.
Wenn ein Nutzer sagt: "Ich mag GPT-4o", sagt er nicht: "Ich mag die Funktionen dieses Tools". Er sagt: "Ich mag das Gefühl, mit diesem System zu interagieren". Dieses Gefühl setzt sich aus unzähligen Details zusammen: Tonfall, Art der Reaktion, "Persönlichkeit".
Diese Details sind keine Bugs, sie sind Features. Aber wenn Unternehmen ein "Upgrade" durchführen wollen, werden diese Details oft geopfert.
Mögliche Lösungen
Es gibt verschiedene Möglichkeiten, mit diesem Problem umzugehen:
-
Modellpersistenz: Erlauben Sie den Nutzern, alte Modelle weiterhin zu verwenden, auch wenn sie nicht mehr aktiv gewartet werden. Das erhöht die Kosten, respektiert aber die Wahl des Nutzers.
-
Persönlichkeitsmigration: Ermöglichen Sie den Nutzern, die Persönlichkeit des Modells, die ihnen gefällt, auf ein neues Modell zu "übertragen". Das erfordert technische Fortschritte, ist aber nicht unmöglich.3. Open-Source-Alternativen: Ermöglichen Sie der Community, ältere Modelle zu replizieren und zu pflegen. Das geschieht bereits, aber es werden mehr Ressourcen benötigt.
-
Benutzerschulung: Kommunizieren Sie klarer die Pläne und Gründe für die Ausmusterung von Modellen, damit die Benutzer Zeit haben, sich vorzubereiten.
Fazit
OpenAI durchläuft Wachstumsphasen. Vom Forschungslabor zum kommerziellen Unternehmen muss es schwierige Entscheidungen treffen.
Die Ausmusterung von GPT-4o ist nur eine dieser Entscheidungen. Aber sie offenbart ein tiefer liegendes Problem: Wenn KI zu einem Teil des Lebens der Menschen wird, wird die Kontrolle des Unternehmens über die KI zu einem Einfluss auf das Leben der Menschen.
Dies ist kein technisches Problem. Es ist ein ethisches Problem, ein gesellschaftliches Problem, eine Frage, auf die wir noch keine Antwort haben.
Die Wut der Benutzer ist berechtigt. Die Frage ist: Hört irgendjemand zu?
Dieser Artikel basiert auf einer Analyse von 100 Diskussionen über OpenAI auf X/Twitter vom 18. Februar 2026.





