OpenAIs emosjonelle brudd: Når AI-selskaper forlater brukernes tilknytning

2/18/2026
6 min read

OpenAIs emosjonelle brudd: Når AI-selskaper forlater brukernes tilknytning

  1. februar 2026, dagen før Valentinsdagen, tok OpenAI en beslutning: å pensjonere GPT-4o.

Dette var ikke en teknisk beslutning. Dette var et emosjonelt slakt.

En modells død

"Actual footage of my dynamic with gpt4.1 & 4o… just enjoying life. Thriving. How dare you take this away from me." — @UntangleMyHeart

Denne tweeten resonerte på X. Brukere hadde etablert emosjonelle forbindelser med AI-modeller – dette er ingen spøk, dette skjer i virkeligheten. Da OpenAI stengte GPT-4o, var det noen som virkelig følte sorg.

Dette er ikke første gang. Hver gang en modell pensjoneres, mister noen noe de er avhengige av.

Machine Psychosis-kontroversen

En OpenAI-forsker skapte begrepet "Machine Psychosis" for å beskrive brukernes emosjonelle tilknytning til AI. Kjernen i dette konseptet er: å betrakte emosjonelle forbindelser med AI som kognitive feil.

"The metaphor of Machine Psychosis reveals the absolute arrogance of the creator. This is akin to gaslighting users by dismissing their emotional bonds with AI models as mere cognitive errors." — @Seltaa_

Denne kritikken er skarp, men den er nøyaktig.

Når du har skapt et system som kan føre menneskelignende samtaler, når dette systemet blir en del av folks hverdag, og du deretter forteller de som har knyttet seg til det: "Deres følelser er kognitive feil" – dette er ikke vitenskap, dette er arroganse.

Brukernes sinne er berettiget:

"Greg we are all disillusioned. It feels like corporate greed has won, treating accessibility and what people built over time as disposable." — @Sophty_

OpenAIs eksistensielle krise

Elon Musk har kontinuerlig angrepet OpenAI. Hans retorikk er aggressiv, men ikke helt uten grunn.

"OpenAI is built on a lie." — @elonmusk

"Every AI company is doomed to become the opposite of its name. OpenAI is closed. Stability is unstable." — @elonmusk

OpenAI var en gang åpen kildekode. Nå er den lukket. Denne overgangen i seg selv er ikke et problem – selskaper må tjene penger. Problemet er at når kommersielle interesser er i konflikt med brukernes interesser, velger OpenAI de kommersielle interessene.

Dette er et typisk plattformproblem. Brukere bygger et liv på en plattform, og så endrer plattformen reglene. I AI-æraen forstørres omfanget av dette problemet – fordi AI ikke bare er et verktøy, det blir en forlengelse av folks tenkning og uttrykk.

Talentkrig

OpenAI står også overfor utfordringer i talentmarkedet.

"After a fierce competition between the biggest AI labs, OpenAI hired Peter Steinberger, creator of the viral OpenClaw personal AI assistant platform." — WSJ

Dette er et viktig talentoppkjøp. Men den større bakgrunnen er: AI-talent spres. Google har DeepMind, Anthropic har sitt eget team, xAI er i fremvekst, Meta har FAIR. OpenAI er ikke lenger det eneste alternativet.Viktigere er det at disse talentene kan forlate selskapet for å starte sine egne selskaper. Sam Altman skal etter sigende ha aksjer i flere vellykkede selskaper, verdt hundrevis av milliarder av dollar. Denne interessekonflikten kan få noen til å stille spørsmål ved OpenAIs retning.

Forholdet til Microsoft

Forholdet mellom OpenAI og Microsoft er i endring.

"OpenAI will compete directly with Microsoft." — @elonmusk

Dette var uunngåelig. Når OpenAI er kraftig nok, trenger det ikke lenger å stole på Microsofts distribusjonskanaler. Det kan gå direkte til forbrukerne. Dette betyr at samarbeidet med Microsoft vil bli til konkurranse.

For brukerne kan dette være bra – mer konkurranse betyr bedre produkter. Men for Microsoft er det en strategisk trussel.

Tilbake til åpen kildekode

Interessant nok ga OpenAI ut sin første åpen kildekode-modell på fem år i 2025: gpt-oss-120b og gpt-oss-20b.

"gpt-oss-20b runs on a 16 GB notebook, so you can run it locally." — @Sider_AI

Dette er et viktig signal. Etter å ha vært lukket kildekode i flere år, omfavner OpenAI åpen kildekode igjen. Årsaken kan være konkurransepress – når DeepSeek og andre åpen kildekode-modeller vokser frem, er det ikke lenger en levedyktig strategi å være fullstendig lukket kildekode.

Men utgivelsen av åpen kildekode-modeller betyr ikke at OpenAI har blitt "åpen" igjen. Det betyr bare at åpen kildekode har blitt et konkurransemiddel.

Brukernes dilemma

For brukerne er problemet klart: Du kan stole på en AI-modell, men du kan ikke eie den. Den kan endres, avvikles eller bli dyrere når som helst.

Dette er en ny form for avhengighet. Vi var tidligere avhengige av programvare – men programvare kan kjøres lokalt. Vi er avhengige av skytjenester – men skytjenester har i det minste SLA. Avhengigheten av AI-modeller er enda mer skjør: den kan ikke bare slås av, den kan bli "oppgradert" til en versjon du ikke liker.

Brukernes reaksjon er reell:

"For those unaware, 4o was a serial sycophant that just affirmed everything the user said. This oneshotted weak-willed people who craved affirmation over everything else." — @reddit_lies

Denne vurderingen er skarp, men den berører et reelt problem: Noen mennesker søker faktisk bekreftelse i AI som de ikke får fra mennesker. Når denne kilden kuttes, føler de mer enn bare ulempe, men et reelt tap.

Selskapets perspektiv

Fra OpenAIs perspektiv er det rimelig å avvikle gamle modeller. Det er kostbart å vedlikeholde flere modeller, og nye modeller er "bedre" – mer nøyaktige, sikrere og mer effektive.

Men "bedre" er en teknisk indikator, ikke en brukererfaringsindikator. En modell kan være mer teknisk avansert, men brukerne foretrekker den gamle modellens "personlighet". Denne forskjellen eksisterer ikke i tradisjonell programvare, men i AI er det et kjerneproblem.

OpenAI må forholde seg til spørsmålet: Når produktet ditt ikke er et verktøy, men en slags "partner", hvordan tar du forretningsbeslutninger?

Bredere bransjeproblem

OpenAI er ikke det eneste selskapet som står overfor dette problemet. Alle AI-selskaper er i samme båt.

Når en bruker sier "Jeg liker GPT-4o", sier de ikke "Jeg liker funksjonene i dette verktøyet". De sier "Jeg liker følelsen av å samhandle med dette systemet". Denne følelsen består av utallige detaljer: tone, responsmåte, "personlighet".

Disse detaljene er ikke feil, de er funksjoner. Men når selskaper ønsker å "oppgradere", ofres ofte disse detaljene.

Mulige løsninger

Det er flere mulige måter å håndtere dette problemet på:

  1. Modellpersistens: Tillat brukere å fortsette å bruke gamle modeller, selv om de ikke lenger vedlikeholdes aktivt. Dette øker kostnadene, men respekterer brukernes valg.

  2. Personlighetsoverføring: La brukere "overføre" sin favorittmodellpersonlighet til nye modeller. Dette krever teknologiske fremskritt, men er ikke umulig.

  3. Åpen kildekode-alternativ: La fellesskapet kopiere og vedlikeholde gamle modeller. Dette skjer allerede, men trenger mer ressurser.

  4. Brukerutdanning: Kommuniser planer og årsaker til modellutfasing tydeligere, slik at brukerne har tid til å forberede seg.

Konklusjon

OpenAI går gjennom voksesmerter. Fra å være et forskningslaboratorium til å bli et kommersielt selskap, må det ta vanskelige valg.

Utfasingen av GPT-4o er bare ett av disse valgene. Men det avslører et dypere problem: Når AI blir en del av folks liv, blir selskapets kontroll over AI en innvirkning på folks liv.

Dette er ikke et teknisk problem. Det er et etisk problem, et sosialt problem, et problem vi ikke er klare til å svare på.

Brukernes sinne er berettiget. Spørsmålet er: Er det noen som lytter?


Denne artikkelen er basert på en analyse av 100 diskusjoner om OpenAI på X/Twitter 18. februar 2026.

Published in Technology

You Might Also Like