OpenAI-jeva čustvena prekinitev: Ko podjetje za umetno inteligenco zavrže navezanost uporabnikov

2/18/2026
6 min read

OpenAI-jeva čustvena prekinitev: Ko podjetje za umetno inteligenco zavrže navezanost uporabnikov

  1. februar 2026, dan pred valentinovim, je OpenAI sprejel odločitev: upokojiti GPT-4o.

To ni bila tehnična odločitev. To je bil čustveni pokol.

Smrt modela

"Actual footage of my dynamic with gpt4.1 & 4o… just enjoying life. Thriving. How dare you take this away from me." — @UntangleMyHeart

Ta tvit je odmeval na X-u. Uporabniki so vzpostavili čustveno povezavo z modeli umetne inteligence – to ni šala, to se je res zgodilo. Ko je OpenAI ugasnil GPT-4o, so nekateri resnično občutili žalost.

To ni prvič. Ob vsaki upokojitvi modela nekdo izgubi nekaj, na kar se zanaša.

Kontroverznost Machine Psychosis

Raziskovalec OpenAI je ustvaril izraz "Machine Psychosis" (Strojna psihoza), da bi opisal čustveno navezanost uporabnikov na umetno inteligenco. Bistvo tega koncepta je: obravnavati čustveno povezavo z umetno inteligenco kot kognitivno napako.

"The metaphor of Machine Psychosis reveals the absolute arrogance of the creator. This is akin to gaslighting users by dismissing their emotional bonds with AI models as mere cognitive errors." — @Seltaa_

Ta kritika je ostra, vendar je natančna.

Ko ustvarite sistem, ki je sposoben voditi človeku podobne pogovore, ko ta sistem postane del vsakdanjega življenja ljudi, in potem tistim, ki so z njim vzpostavili povezavo, rečete: "Vaši občutki so kognitivna napaka" – to ni znanost, to je aroganca.

Uporabnikova jeza je upravičena:

"Greg we are all disillusioned. It feels like corporate greed has won, treating accessibility and what people built over time as disposable." — @Sophty_

Eksistencialna kriza OpenAI

Elon Musk nenehno napada OpenAI. Njegove besede so radikalne, vendar niso popolnoma brez osnove.

"OpenAI is built on a lie." — @elonmusk

"Every AI company is doomed to become the opposite of its name. OpenAI is closed. Stability is unstable." — @elonmusk

OpenAI je bil nekoč odprtokoden. Zdaj je zaprt. Ta prehod sam po sebi ni problem – podjetja morajo ustvarjati dobiček. Težava je v tem, da ko so komercialni interesi v nasprotju z interesi uporabnikov, OpenAI izbere komercialne interese.

To je tipičen problem platforme. Uporabniki si na platformi ustvarijo življenje, nato pa platforma spremeni pravila. V dobi umetne inteligence se je obseg tega problema povečal – ker umetna inteligenca ni le orodje, ampak je postala podaljšek človekovega razmišljanja in izražanja.

Vojna za talente

OpenAI se sooča z izzivi tudi na trgu dela.

"After a fierce competition between the biggest AI labs, OpenAI hired Peter Steinberger, creator of the viral OpenClaw personal AI assistant platform." — WSJ

To je pomembna pridobitev talentov. Toda širši kontekst je: talenti za umetno inteligenco se razpršujejo. Google ima DeepMind, Anthropic ima svojo ekipo, xAI je v vzponu, Meta ima FAIR. OpenAI ni več edina izbira.Še pomembneje je, da lahko ti talenti odidejo in ustanovijo lastna podjetja. Sam Altman naj bi imel deleže v več uspešnih podjetjih, vrednih več deset milijard dolarjev. Takšna struktura interesov lahko pri nekaterih sproži dvome o smeri OpenAI.

Odnos z Microsoftom

Odnos med OpenAI in Microsoftom se spreminja.

"OpenAI bo neposredno konkuriral Microsoftu." — @elonmusk

To se bo prej ali slej zgodilo. Ko bo OpenAI dovolj močan, ne bo več odvisen od Microsoftovih distribucijskih kanalov. Lahko bo šel neposredno do potrošnikov. To pomeni, da se bo sodelovanje z Microsoftom spremenilo v konkurenco.

Za uporabnike je to lahko dobra stvar – več konkurence pomeni boljše izdelke. Toda za Microsoft je to strateška grožnja.

Vrnitev odprte kode

Zanimivo je, da je OpenAI leta 2025 objavil prvi odprtokodni model v petih letih: gpt-oss-120b in gpt-oss-20b.

"gpt-oss-20b deluje na 16 GB prenosniku, tako da ga lahko zaženete lokalno." — @Sider_AI

To je pomemben signal. Po nekaj letih zaprte kode je OpenAI ponovno sprejel odprto kodo. Razlog je verjetno konkurenčni pritisk – ko so DeepSeek in drugi odprtokodni modeli vzcveteli, popolnoma zaprta koda ni bila več izvedljiva strategija.

Toda objava odprtokodnih modelov ne pomeni, da je OpenAI spet postal "odprt". To preprosto pomeni, da je odprta koda postala sredstvo konkurence.

Težave uporabnikov

Za uporabnike je težava jasna: lahko se zanašate na model AI, vendar ga ne morete imeti v lasti. Lahko ga kadar koli spremenijo, umaknejo ali pa postane dražji.

To je nova oblika odvisnosti. V preteklosti smo bili odvisni od programske opreme – vendar se programska oprema lahko izvaja lokalno. Odvisni smo od storitev v oblaku – vendar imajo storitve v oblaku vsaj SLA. Odvisnost od modelov AI je bolj krhka: ne samo, da jo je mogoče izklopiti, ampak jo je mogoče "nadgraditi" v različico, ki vam ni všeč.

Odziv uporabnikov je resničen:

"Za tiste, ki ne veste, je bil 4o serijski prilizovalec, ki je samo potrjeval vse, kar je uporabnik rekel. To je uničilo šibke ljudi, ki so hrepeneli po potrditvi nad vsem drugim." — @reddit_lies

Ta ocena je ostra, vendar se dotika resničnega problema: nekateri ljudje res iščejo v AI potrditev, ki je ne dobijo od ljudi. Ko je ta vir prekinjen, ne občutijo le nevšečnosti, ampak resnično izgubo.

Perspektiva podjetja

Z vidika OpenAI je umik starih modelov upravičen. Vzdrževanje več modelov je drago, novi modeli pa so "boljši" – natančnejši, varnejši in učinkovitejši.

Toda "boljši" je tehnični kazalnik, ne pa kazalnik uporabniške izkušnje. Model je lahko tehnično naprednejši, vendar imajo uporabniki raje "osebnost" starega modela. Ta razlika v tradicionalni programski opremi ne obstaja, v AI pa je osrednjega pomena.

OpenAI se mora soočiti z vprašanjem: kako sprejemate poslovne odločitve, ko vaš izdelek ni orodje, ampak v nekem smislu "partner"?

Širši industrijski problem

OpenAI ni edino podjetje, ki se sooča s tem problemom. Vsa podjetja AI so v istem čolnu.

Ko uporabnik reče "Všeč mi je GPT-4o", ne reče "Všeč mi je funkcionalnost tega orodja". Reče "Všeč mi je občutek interakcije s tem sistemom". Ta občutek je sestavljen iz neštetih podrobnosti: ton, način odzivanja, "osebnost".

Te podrobnosti niso napake, ampak so funkcije. Toda ko podjetje želi "nadgraditi", se te podrobnosti pogosto žrtvujejo.

Možne rešitve

Obstaja več možnih načinov za reševanje tega problema:

  1. Vztrajnost modela: Uporabnikom omogočite, da še naprej uporabljajo stare modele, tudi če se ne vzdržujejo več aktivno. To poveča stroške, vendar spoštuje izbiro uporabnikov.

  2. Prenos osebnosti: Uporabnikom omogočite, da "prenesejo" svojo najljubšo osebnost modela na nove modele. To zahteva tehnološki napredek, vendar ni nemogoče.3. Odprtokodna alternativa: Omogočite skupnosti, da kopira in vzdržuje starejše modele. To se že dogaja, vendar je potrebnih več virov.

  3. Izobraževanje uporabnikov: Jasneje komunicirajte načrte in razloge za upokojitev modelov, da imajo uporabniki čas za pripravo.

Bistvo

OpenAI preživlja težave odraščanja. Iz raziskovalnega laboratorija se spreminja v komercialno podjetje in mora sprejemati težke odločitve.

Upokojitev GPT-4o je le ena od teh odločitev. Vendar razkriva globlji problem: ko AI postane del življenja ljudi, se nadzor podjetja nad AI spremeni v vpliv na življenja ljudi.

To ni tehnično vprašanje. To je etično vprašanje, družbeno vprašanje, vprašanje, na katerega še nismo pripravljeni odgovoriti.

Uporabniška jeza je upravičena. Vprašanje je: ali kdo posluša?


Ta članek temelji na analizi 100 razprav o OpenAI na X/Twitterju z dne 18. februarja 2026.

Published in Technology

You Might Also Like