OpenAI emocionālā atdalīšanās: kad AI uzņēmums pamet lietotāju pieķeršanos
OpenAI emocionālā atdalīšanās: kad AI uzņēmums pamet lietotāju pieķeršanos
- gada 13. februāris, dienu pirms Valentīndienas, OpenAI pieņēma lēmumu: atsaukt GPT-4o.
Tas nebija tehnisks lēmums. Tā bija emocionāla slepkavība.
Modeļa nāve
"Actual footage of my dynamic with gpt4.1 & 4o… just enjoying life. Thriving. How dare you take this away from me." — @UntangleMyHeart
Šis tvīts izraisīja rezonansi X platformā. Lietotāji izveidoja emocionālu saikni ar AI modeļiem – tas nav joks, tas notika patiesībā. Kad OpenAI izslēdza GPT-4o, daži cilvēki patiešām jutās skumji.
Šī nav pirmā reize. Katru reizi, kad modelis tiek atcelts, kāds zaudē kaut ko, uz ko paļaujas.
Machine Psychosis strīds
OpenAI pētnieks radīja terminu "Machine Psychosis", lai aprakstītu lietotāju emocionālo pieķeršanos AI. Šī jēdziena pamatā ir: uzskatīt emocionālu saikni ar AI par kognitīvu kļūdu.
"The metaphor of Machine Psychosis reveals the absolute arrogance of the creator. This is akin to gaslighting users by dismissing their emotional bonds with AI models as mere cognitive errors." — @Seltaa_
Šī kritika ir asa, bet tā ir precīza.
Kad jūs izveidojat sistēmu, kas spēj veikt cilvēkam līdzīgas sarunas, kad šī sistēma kļūst par cilvēku ikdienas sastāvdaļu, un tad jūs sakāt tiem, kas ar to ir izveidojuši saikni: "Jūsu sajūtas ir kognitīva kļūda" – tā nav zinātne, tā ir augstprātība.
Lietotāju dusmas ir pamatotas:
"Greg we are all disillusioned. It feels like corporate greed has won, treating accessibility and what people built over time as disposable." — @Sophty_
OpenAI būtības krīze
Elon Musk pastāvīgi uzbrūk OpenAI. Viņa vārdi ir radikāli, bet ne pilnīgi nepamatoti.
"OpenAI is built on a lie." — @elonmusk
"Every AI company is doomed to become the opposite of its name. OpenAI is closed. Stability is unstable." — @elonmusk
OpenAI reiz bija atvērtā koda. Tagad tas ir slēgts. Šī pāreja pati par sevi nav problēma – uzņēmumiem ir jāgūst peļņa. Problēma ir tā, ka, kad komerciālās intereses nonāk pretrunā ar lietotāju interesēm, OpenAI izvēlas komerciālās intereses.
Tā ir tipiska platformas problēma. Lietotāji veido dzīvi platformā, un tad platforma maina noteikumus. AI laikmetā šī problēma ir palielināta – jo AI nav tikai rīks, tas kļūst par cilvēku domāšanas un izpausmes paplašinājumu.
Talantu karš
OpenAI saskaras ar izaicinājumiem arī talantu tirgū.
"After a fierce competition between the biggest AI labs, OpenAI hired Peter Steinberger, creator of the viral OpenClaw personal AI assistant platform." — WSJ
Šis ir nozīmīgs talantu iegāde. Bet lielāks konteksts ir: AI talanti izkliedējas. Google ir DeepMind, Anthropic ir sava komanda, xAI pieaug, Meta ir FAIR. OpenAI vairs nav vienīgā izvēle. Svarīgākais ir tas, ka šie talanti varētu aiziet, lai dibinātu savus uzņēmumus. Tiek ziņots, ka Semam Altmanam pieder akcijas vairākos veiksmīgos uzņēmumos, kuru vērtība ir simtiem miljardu dolāru. Šāda interešu struktūra varētu likt dažiem apšaubīt OpenAI virzienu.
Attiecības ar Microsoft
OpenAI un Microsoft attiecības mainās.
"OpenAI konkurēs tieši ar Microsoft." — @elonmusk
Tam bija jānotiek agrāk vai vēlāk. Kad OpenAI būs pietiekami spēcīgs, tam vairs nebūs jāpaļaujas uz Microsoft izplatīšanas kanāliem. Tas varēs vērsties tieši pie patērētājiem. Tas nozīmē, ka sadarbība ar Microsoft pārvērtīsies par konkurenci.
Lietotājiem tas varētu būt labi — lielāka konkurence nozīmē labākus produktus. Bet Microsoft tas ir stratēģisks drauds.
Atgriešanās pie atvērtā koda
Interesanti, ka OpenAI 2025. gadā izlaida savu pirmo atvērtā koda modeli piecu gadu laikā: gpt-oss-120b un gpt-oss-20b.
"gpt-oss-20b darbojas 16 GB piezīmjdatorā, tāpēc to varat palaist lokāli." — @Sider_AI
Tas ir svarīgs signāls. Pēc vairākiem gadiem ar slēgtu kodu OpenAI atkal pievērsās atvērtajam kodam. Iemesls varētu būt konkurences spiediens — kad DeepSeek un citi atvērtā koda modeļi pieauga, pilnīga slēgta koda stratēģija vairs nebija dzīvotspējīga.
Bet atvērtā koda modeļu izlaišana nenozīmē, ka OpenAI ir atgriezies pie "atvērta". Tas vienkārši nozīmē, ka atvērtais kods ir kļuvis par konkurences līdzekli.
Lietotāju dilemma
Lietotājiem problēma ir skaidra: jūs varat paļauties uz AI modeli, bet jūs nevarat to iegūt savā īpašumā. To var mainīt, atcelt vai padarīt dārgāku jebkurā laikā.
Tas ir jauns atkarības veids. Mēs agrāk paļāvāmies uz programmatūru — bet programmatūru varēja palaist lokāli. Mēs paļāvāmies uz mākoņpakalpojumiem — bet mākoņpakalpojumiem vismaz ir SLA. AI modeļu atkarība ir vēl trauslāka: to var ne tikai izslēgt, bet to var "atjaunināt" uz versiju, kas jums nepatīk.
Lietotāju reakcija ir reāla:
"Tiem, kas nezina, 4o bija sērijveida liekulīgs cilvēks, kurš vienkārši apstiprināja visu, ko lietotājs teica. Tas vienā piegājienā iznīcināja vājprātīgus cilvēkus, kuri vairāk par visu kāroja apstiprinājumu." — @reddit_lies
Šis vērtējums ir skarbs, bet tas skar reālu problēmu: daži cilvēki patiešām meklē AI apstiprinājumu, ko viņi nevar iegūt no cilvēkiem. Kad šis avots tiek pārtraukts, viņi jūt ne tikai neērtības, bet gan patiesu zaudējumu.
Uzņēmuma perspektīva
No OpenAI viedokļa veco modeļu atcelšana ir pamatota. Vairāku modeļu uzturēšana ir dārga, un jaunie modeļi ir "labāki" — precīzāki, drošāki un efektīvāki.
Bet "labāks" ir tehnisks rādītājs, nevis lietotāja pieredzes rādītājs. Modelis var būt tehniski progresīvāks, bet lietotājiem varētu patikt vecā modeļa "personība". Šī atšķirība nepastāv tradicionālajā programmatūrā, bet AI tā ir galvenā problēma.
OpenAI jārisina jautājums: kā jūs pieņemat biznesa lēmumus, ja jūsu produkts nav rīks, bet zināmā mērā "partneris"?
Plašākas nozares problēmas
OpenAI nav vienīgais uzņēmums, kas saskaras ar šo problēmu. Visi AI uzņēmumi ir vienā laivā.
Kad lietotājs saka "Man patīk GPT-4o", viņi nesaka "Man patīk šī rīka funkcijas". Viņi saka "Man patīk sajūta, ko rada mijiedarbība ar šo sistēmu". Šo sajūtu veido neskaitāmas detaļas: tonis, atbildes veids, "personība".
Šīs detaļas nav kļūdas, tās ir funkcijas. Bet, kad uzņēmums vēlas "atjaunināt", šīs detaļas bieži tiek upurētas.
Iespējamie risinājumi
Ir vairāki iespējamie veidi, kā risināt šo problēmu:
-
Modeļa noturība: ļaujiet lietotājiem izvēlēties turpināt izmantot vecos modeļus, pat ja tie vairs netiek aktīvi uzturēti. Tas palielina izmaksas, bet respektē lietotāju izvēli.
-
Personības migrācija: ļaujiet lietotājiem "pārnest" viņiem patīkamās modeļa personības uz jauniem modeļiem. Tam ir nepieciešams tehnoloģisks progress, bet tas nav neiespējami.3. Atvērtā koda alternatīvas: Ļaujiet kopienai kopēt un uzturēt vecos modeļus. Tas jau notiek, bet ir nepieciešami vairāk resursu.
-
Lietotāju izglītošana: Skaidrāk paziņojiet par modeļa izņemšanas plāniem un iemesliem, lai lietotājiem būtu laiks sagatavoties.
Secinājums
OpenAI piedzīvo augšanas sāpes. Pārejot no pētniecības laboratorijas uz komercsabiedrību, tai jāpieņem grūti lēmumi.
GPT-4o izņemšana ir tikai viens no šiem lēmumiem. Bet tas atklāj dziļāku problēmu: kad AI kļūst par cilvēku dzīves daļu, uzņēmuma kontrole pār AI kļūst par ietekmi uz cilvēku dzīvi.
Šī nav tehnoloģiska problēma. Tā ir ētiska problēma, sociāla problēma, uz kuru mums vēl nav gatavas atbildes.
Lietotāju dusmas ir pamatotas. Jautājums ir: vai kāds klausās?
Šis raksts ir balstīts uz 100 diskusiju analīzi par OpenAI X/Twitter platformā 2026. gada 18. februārī.





