La ruptura emocional d'OpenAI: quan una empresa d'IA abandona la dependència dels usuaris

2/18/2026
7 min read

La ruptura emocional d'OpenAI: quan una empresa d'IA abandona la dependència dels usuaris

El 13 de febrer de 2026, un dia abans de Sant Valentí, OpenAI va prendre una decisió: retirar GPT-4o.

Aquesta no és una decisió tècnica. És una massacre emocional.

La mort d'un model

"Actual footage of my dynamic with gpt4.1 & 4o… just enjoying life. Thriving. How dare you take this away from me." — @UntangleMyHeart

Aquest tuit va ressonar a X. Els usuaris van establir connexions emocionals amb els models d'IA; no és una broma, és una cosa que passa de veritat. Quan OpenAI va tancar GPT-4o, algunes persones es van sentir realment tristes.

No és la primera vegada. Cada vegada que es retira un model, algú perd allò de què depèn.

La controvèrsia de la psicosi de la màquina

Un investigador d'OpenAI va crear el terme "Machine Psychosis" (Psicosi de la màquina) per descriure la dependència emocional dels usuaris a la IA. La idea principal d'aquest concepte és: considerar la connexió emocional amb la IA com un error cognitiu.

"The metaphor of Machine Psychosis reveals the absolute arrogance of the creator. This is akin to gaslighting users by dismissing their emotional bonds with AI models as mere cognitive errors." — @Seltaa_

Aquesta crítica és punyent, però és precisa.

Quan crees un sistema capaç de mantenir converses semblants a les humanes, quan aquest sistema es converteix en part de la vida quotidiana de les persones i després dius a aquells que hi han establert una connexió: "Els vostres sentiments són un error cognitiu", això no és ciència, és arrogància.

La ira dels usuaris és justificada:

"Greg we are all disillusioned. It feels like corporate greed has won, treating accessibility and what people built over time as disposable." — @Sophty_

La crisi d'essència d'OpenAI

Elon Musk ha estat atacant OpenAI. Les seves paraules són radicals, però no del tot desencertades.

"OpenAI is built on a lie." — @elonmusk

"Every AI company is doomed to become the opposite of its name. OpenAI is closed. Stability is unstable." — @elonmusk

OpenAI abans era de codi obert. Ara és tancat. Aquesta transició en si mateixa no és un problema: les empreses necessiten obtenir beneficis. El problema és que, quan els interessos comercials entren en conflicte amb els interessos dels usuaris, OpenAI tria els interessos comercials.

És un problema de plataforma típic. Els usuaris construeixen la seva vida en una plataforma i després la plataforma canvia les regles. A l'era de la IA, l'escala d'aquest problema s'ha ampliat, perquè la IA no és només una eina, sinó que s'ha convertit en una extensió del pensament i l'expressió de les persones.

La guerra pel talent

OpenAI també s'enfronta a reptes al mercat laboral del talent.

"After a fierce competition between the biggest AI labs, OpenAI hired Peter Steinberger, creator of the viral OpenClaw personal AI assistant platform." — WSJ

Aquesta és una adquisició de talent important. Però el context més ampli és: el talent en IA s'està dispersant. Google té DeepMind, Anthropic té el seu propi equip, xAI està en ascens i Meta té FAIR. OpenAI ja no és l'única opció.Més important encara, aquests talents poden marxar per fundar les seves pròpies empreses. Segons els informes, Sam Altman té participacions en diverses empreses d'èxit, valorades en centenars de milers de milions de dòlars. Aquesta estructura d'interessos fa que algunes persones qüestionin la direcció d'OpenAI.

Relació amb Microsoft

La relació entre OpenAI i Microsoft està canviant.

"OpenAI competirà directament amb Microsoft." — @elonmusk

Això havia de passar tard o d'hora. Quan OpenAI sigui prou potent, ja no necessitarà dependre del canal de distribució de Microsoft. Pot dirigir-se directament als consumidors. Això significa que la col·laboració amb Microsoft es convertirà en competència.

Per als usuaris, això podria ser bo: més competència significa millors productes. Però per a Microsoft, és una amenaça estratègica.

El retorn del codi obert

És interessant que OpenAI hagi publicat el primer model de codi obert en cinc anys el 2025: gpt-oss-120b i gpt-oss-20b.

"gpt-oss-20b s'executa en un portàtil de 16 GB, de manera que el pots executar localment." — @Sider_AI

Aquest és un senyal important. Després d'uns quants anys de codi tancat, OpenAI torna a abraçar el codi obert. La raó podria ser la pressió de la competència: quan DeepSeek i altres models de codi obert van sorgir, el codi completament tancat ja no era una estratègia viable.

Però la publicació de models de codi obert no significa que OpenAI hagi tornat a ser "obert". Simplement significa que el codi obert s'ha convertit en un mitjà de competència.

El dilema dels usuaris

Per als usuaris, el problema és clar: pots dependre d'un model d'IA, però no el pots posseir. Es pot canviar, retirar o encarir en qualsevol moment.

Aquesta és una nova forma de dependència. En el passat depeníem del programari, però el programari es podia executar localment. Depeníem dels serveis al núvol, però els serveis al núvol almenys tenen un SLA. La dependència dels models d'IA és encara més fràgil: no només es pot desactivar, sinó que es pot "actualitzar" a una versió que no t'agrada.

La reacció dels usuaris és real:

"Per a aquells que no ho sàpiguen, 4o era un adulador en sèrie que simplement afirmava tot el que deia l'usuari. Això va matar persones de voluntat feble que anhelaven l'afirmació per sobre de tot." — @reddit_lies

Aquesta avaluació és dura, però toca un problema real: algunes persones realment busquen en la IA l'afirmació que no obtenen dels humans. Quan aquesta font es talla, senten més que un inconvenient, sinó una pèrdua real.

La perspectiva de l'empresa

Des del punt de vista d'OpenAI, la retirada dels models antics és raonable. El manteniment de diversos models és costós i els models nous són "millors": més precisos, més segurs i més eficients.

Però "millor" és una mètrica tècnica, no una mètrica d'experiència d'usuari. Un model pot ser tècnicament més avançat, però els usuaris prefereixen la "personalitat" del model antic. Aquesta diferència no existeix en el programari tradicional, però en la IA és un problema central.

El problema que OpenAI ha d'afrontar és: quan el teu producte no és una eina, sinó una mena de "company", com prens decisions comercials?

Problemes més amplis del sector

OpenAI no és l'única empresa que s'enfronta a aquest problema. Totes les empreses d'IA estan al mateix vaixell.

Quan un usuari diu "M'agrada GPT-4o", no està dient "M'agraden les funcions d'aquesta eina". Està dient "M'agrada la sensació d'interactuar amb aquest sistema". Aquesta sensació està formada per innombrables detalls: to, manera de respondre, "personalitat".

Aquests detalls no són errors, són característiques. Però quan les empreses volen "actualitzar", aquests detalls sovint se sacrifiquen.

Solucions possibles

Hi ha diverses maneres possibles d'abordar aquest problema:

  1. Persistència del model: permetre als usuaris triar continuar utilitzant models antics, fins i tot si ja no es mantenen activament. Això augmenta els costos, però respecta l'elecció de l'usuari.

  2. Migració de la personalitat: permetre als usuaris "trasplantar" la personalitat del model que els agrada a un model nou. Això requereix avenços tecnològics, però no és impossible.3. Alternativa de codi obert: permetre que la comunitat repliqui i mantingui els models antics. Això ja està passant, però necessita més recursos.

  3. Educació de l'usuari: comunicar de manera més clara els plans i les raons per a la retirada del model, donant temps als usuaris per preparar-se.

Conclusió

OpenAI està passant per dolors de creixement. En passar d'un laboratori de recerca a una empresa comercial, ha de prendre decisions difícils.

La retirada de GPT-4o és només una d'aquestes decisions. Però revela un problema més profund: quan la IA es converteix en part de la vida de les persones, el control de l'empresa sobre la IA es converteix en un impacte en la vida de les persones.

Aquest no és un problema tècnic. És un problema ètic, un problema social, un problema que encara no estem preparats per respondre.

La ira dels usuaris és justificada. La pregunta és: algú està escoltant?


Aquest article es basa en una anàlisi de 100 discussions sobre OpenAI a X/Twitter el 18 de febrer de 2026.

Published in Technology

You Might Also Like