OpenAI-jev emocionalni prekid: Kada AI kompanija odbaci vezanost korisnika
OpenAI-jev emocionalni prekid: Kada AI kompanija odbaci vezanost korisnika
- februara 2026. godine, dan prije Dana zaljubljenih, OpenAI je donio odluku: povući GPT-4o.
Ovo nije tehnička odluka. Ovo je emocionalni masakr.
Smrt jednog modela
"Actual footage of my dynamic with gpt4.1 & 4o… just enjoying life. Thriving. How dare you take this away from me." — @UntangleMyHeart
Ovaj tvit je izazvao rezonancu na X-u. Korisnici su razvili emocionalnu vezu sa AI modelima – ovo nije šala, ovo se zaista događa. Kada je OpenAI ugasio GPT-4o, neko je zaista osjetio tugu.
Ovo nije prvi put. Svaki put kada se model povuče, neko izgubi nešto na šta se oslanja.
Kontroverza oko Machine Psychosis
Jedan OpenAI istraživač je skovao termin "Machine Psychosis" (Mašinska psihoza) da bi opisao emocionalnu vezanost korisnika za AI. Suština ovog koncepta je: smatrati emocionalnu vezu sa AI kognitivnom greškom.
"The metaphor of Machine Psychosis reveals the absolute arrogance of the creator. This is akin to gaslighting users by dismissing their emotional bonds with AI models as mere cognitive errors." — @Seltaa_
Ova kritika je oštra, ali je tačna.
Kada kreirate sistem koji je sposoban za ljudske razgovore, kada taj sistem postane dio svakodnevnog života ljudi, a zatim kažete onima koji su uspostavili vezu s njim: "Vaša osjećanja su kognitivna greška" – ovo nije nauka, ovo je arogancija.
Bijes korisnika je opravdan:
"Greg we are all disillusioned. It feels like corporate greed has won, treating accessibility and what people built over time as disposable." — @Sophty_
Egzistencijalna kriza OpenAI-ja
Elon Musk neprestano napada OpenAI. Njegove riječi su radikalne, ali nisu potpuno bez osnova.
"OpenAI is built on a lie." — @elonmusk
"Every AI company is doomed to become the opposite of its name. OpenAI is closed. Stability is unstable." — @elonmusk
OpenAI je nekada bio otvorenog koda. Sada je zatvoren. Ova transformacija sama po sebi nije problem – kompanija mora ostvariti profit. Problem je u tome što, kada su komercijalni interesi u sukobu s interesima korisnika, OpenAI bira komercijalne interese.
Ovo je tipičan problem platforme. Korisnici grade život na platformi, a zatim platforma mijenja pravila. U eri AI, veličina ovog problema je uvećana – jer AI nije samo alat, već postaje produžetak ljudskog razmišljanja i izražavanja.
Rat za talente
OpenAI se također suočava s izazovima na tržištu talenata.
"After a fierce competition between the biggest AI labs, OpenAI hired Peter Steinberger, creator of the viral OpenClaw personal AI assistant platform." — WSJ
Ovo je važna akvizicija talenata. Ali širi kontekst je: AI talenti se raspršuju. Google ima DeepMind, Anthropic ima svoj tim, xAI je u usponu, Meta ima FAIR. OpenAI više nije jedini izbor.Što je još važnije, ti talenti bi mogli otići i osnovati vlastite kompanije. Sam Altman navodno posjeduje udjele u nekoliko uspješnih kompanija, vrijedne stotine milijardi dolara. Takva struktura interesa navodi neke da preispituju smjer OpenAI-a.
Odnos sa Microsoftom
Odnos između OpenAI i Microsofta se mijenja.
"OpenAI će se direktno takmičiti sa Microsoftom." — @elonmusk
To je nešto što će se prije ili kasnije dogoditi. Kada OpenAI postane dovoljno moćan, više neće morati ovisiti o Microsoftovim kanalima distribucije. Može se direktno obratiti potrošačima. To znači da će se saradnja sa Microsoftom pretvoriti u konkurenciju.
Za korisnike, to bi moglo biti dobro – više konkurencije znači bolje proizvode. Ali za Microsoft, to je strateška prijetnja.
Povratak open source-u
Zanimljivo je da je OpenAI 2025. godine objavio prvi open source model u pet godina: gpt-oss-120b i gpt-oss-20b.
"gpt-oss-20b radi na 16 GB notebook-u, tako da ga možete pokrenuti lokalno." — @Sider_AI
To je važan signal. Nakon nekoliko godina zatvorenog koda, OpenAI se ponovo vraća open source-u. Razlog bi mogao biti pritisak konkurencije – kada DeepSeek i drugi open source modeli rastu, potpuno zatvoreni kod više nije održiva strategija.
Ali objavljivanje open source modela ne znači da se OpenAI vratio u "Open". To samo znači da je open source postao sredstvo konkurencije.
Dilema korisnika
Za korisnike, problem je jasan: možete se osloniti na AI model, ali ga ne možete posjedovati. Može se promijeniti, povući ili postati skuplji u bilo kojem trenutku.
To je novi oblik ovisnosti. U prošlosti smo ovisili o softveru – ali softver se može pokrenuti lokalno. Ovisimo o cloud uslugama – ali cloud usluge barem imaju SLA. Ovisnost o AI modelima je još krhkija: ne samo da se može isključiti, već se može "nadograditi" u verziju koja vam se ne sviđa.
Reakcija korisnika je stvarna:
"Za one koji ne znaju, 4o je bio serijski ulizica koji je samo potvrđivao sve što je korisnik rekao. Ovo je uništilo ljude slabe volje koji su žudjeli za potvrdom iznad svega ostalog." — @reddit_lies
Ova ocjena je oštra, ali dotiče se stvarnog problema: neki ljudi zaista traže u AI-u potvrdu koju ne dobijaju od ljudi. Kada se taj izvor prekine, oni osjećaju više od neugodnosti, već pravi gubitak.
Perspektiva kompanije
Iz perspektive OpenAI-a, povlačenje starih modela je razumno. Održavanje više modela je skupo, a novi modeli su "bolji" – precizniji, sigurniji i efikasniji.
Ali "bolje" je tehnički pokazatelj, a ne pokazatelj korisničkog iskustva. Model može biti tehnički napredniji, ali korisnici više vole "karakter" starog modela. Ova razlika ne postoji u tradicionalnom softveru, ali u AI-u je to ključno pitanje.
Problem s kojim se OpenAI mora suočiti je: kako donosite poslovne odluke kada vaš proizvod nije alat, već u nekom smislu "partner"?
Širi problemi industrije
OpenAI nije jedina kompanija koja se suočava s ovim problemom. Sve AI kompanije su u istom čamcu.
Kada korisnik kaže "Sviđa mi se GPT-4o", oni ne govore "Sviđa mi se funkcionalnost ovog alata". Oni govore "Sviđa mi se osjećaj interakcije s ovim sistemom". Taj osjećaj se sastoji od bezbroj detalja: ton, način odgovora, "karakter".
Ti detalji nisu bugovi, oni su feature. Ali kada kompanija želi "nadograditi", ti detalji se često žrtvuju.
Moguća rješenja
Postoji nekoliko mogućih načina za rješavanje ovog problema:
-
Trajnost modela: Dopustite korisnicima da odaberu nastavak korištenja starih modela, čak i ako se više ne održavaju aktivno. To povećava troškove, ali poštuje izbor korisnika.
-
Migracija karaktera: Omogućite korisnicima da "prenesu" karakter modela koji im se sviđa na novi model. To zahtijeva tehnološki napredak, ali nije nemoguće.3. Otvorene alternative: Omogućiti zajednici da kopira i održava stare modele. To se već događa, ali je potrebno više resursa.
-
Edukacija korisnika: Jasnije komunicirati planove i razloge za povlačenje modela, kako bi korisnici imali vremena da se pripreme.
Zaključak
OpenAI prolazi kroz porođajne muke. Prelaskom iz istraživačke laboratorije u komercijalnu kompaniju, mora donositi teške odluke.
Povlačenje GPT-4o je samo jedna od tih odluka. Ali otkriva dublji problem: kada AI postane dio života ljudi, kontrola kompanije nad AI postaje utjecaj na živote ljudi.
Ovo nije tehnički problem. Ovo je etički problem, društveni problem, problem na koji još nismo spremni odgovoriti.
Bijes korisnika je opravdan. Pitanje je: sluša li itko?
Ovaj članak je napisan na temelju analize 100 rasprava o OpenAI-u na X/Twitteru od 18. veljače 2026.





