La ruptura emocional de OpenAI: cuando una empresa de IA abandona el apego del usuario
La ruptura emocional de OpenAI: cuando una empresa de IA abandona el apego del usuario
El 13 de febrero de 2026, un día antes del Día de San Valentín, OpenAI tomó una decisión: retirar GPT-4o.
Esta no es una decisión técnica. Es una masacre emocional.
La muerte de un modelo
"Actual footage of my dynamic with gpt4.1 & 4o… just enjoying life. Thriving. How dare you take this away from me." — @UntangleMyHeart
Este tuit resonó en X. Los usuarios establecieron conexiones emocionales con los modelos de IA; esto no es una broma, esto es algo real. Cuando OpenAI desactivó GPT-4o, algunas personas realmente sintieron tristeza.
Esta no es la primera vez. Cada vez que se retira un modelo, alguien pierde algo de lo que depende.
La controversia de Machine Psychosis (Psicosis de la Máquina)
Un investigador de OpenAI acuñó el término "Machine Psychosis" para describir el apego emocional de los usuarios a la IA. El núcleo de este concepto es: tratar la conexión emocional con la IA como un error cognitivo.
"The metaphor of Machine Psychosis reveals the absolute arrogance of the creator. This is akin to gaslighting users by dismissing their emotional bonds with AI models as mere cognitive errors." — @Seltaa_
Esta crítica es mordaz, pero es precisa.
Cuando creas un sistema capaz de mantener conversaciones similares a las humanas, cuando este sistema se convierte en parte de la vida diaria de las personas, y luego les dices a aquellos que han establecido una conexión con él: "Sus sentimientos son un error cognitivo", esto no es ciencia, es arrogancia.
La ira de los usuarios es justificada:
"Greg we are all disillusioned. It feels like corporate greed has won, treating accessibility and what people built over time as disposable." — @Sophty_
La crisis existencial de OpenAI
Elon Musk ha estado atacando a OpenAI. Su retórica es radical, pero no está completamente desprovista de razón.
"OpenAI is built on a lie." — @elonmusk
"Every AI company is doomed to become the opposite of its name. OpenAI is closed. Stability is unstable." — @elonmusk
OpenAI solía ser de código abierto. Ahora es cerrado. Esta transición en sí misma no es un problema: las empresas necesitan obtener ganancias. El problema es que, cuando los intereses comerciales entran en conflicto con los intereses de los usuarios, OpenAI elige los intereses comerciales.
Este es un problema típico de las plataformas. Los usuarios construyen sus vidas en una plataforma y luego la plataforma cambia las reglas. En la era de la IA, la escala de este problema se ha magnificado, porque la IA no es solo una herramienta, se ha convertido en una extensión del pensamiento y la expresión de las personas.
La guerra por el talento
OpenAI también enfrenta desafíos en el mercado laboral.
"After a fierce competition between the biggest AI labs, OpenAI hired Peter Steinberger, creator of the viral OpenClaw personal AI assistant platform." — WSJ
Esta es una adquisición de talento importante. Pero el contexto más amplio es: el talento en IA se está dispersando. Google tiene DeepMind, Anthropic tiene su propio equipo, xAI está en ascenso, Meta tiene FAIR. OpenAI ya no es la única opción.Más importante aún, estos talentos podrían irse para fundar sus propias empresas. Se informa que Sam Altman posee acciones en varias empresas exitosas, valoradas en miles de millones de dólares. Esta estructura de intereses hace que algunos cuestionen la dirección de OpenAI.
Relación con Microsoft
La relación entre OpenAI y Microsoft está cambiando.
"OpenAI competirá directamente con Microsoft." — @elonmusk
Esto iba a suceder tarde o temprano. Cuando OpenAI sea lo suficientemente poderoso, ya no necesitará depender de los canales de distribución de Microsoft. Puede dirigirse directamente a los consumidores. Esto significa que la cooperación con Microsoft se convertirá en competencia.
Para los usuarios, esto podría ser algo bueno: más competencia significa mejores productos. Pero para Microsoft, es una amenaza estratégica.
El regreso del código abierto
Curiosamente, OpenAI lanzó en 2025 el primer modelo de código abierto en cinco años: gpt-oss-120b y gpt-oss-20b.
"gpt-oss-20b se ejecuta en un portátil de 16 GB, por lo que puedes ejecutarlo localmente." — @Sider_AI
Esta es una señal importante. Después de unos años de código cerrado, OpenAI vuelve a adoptar el código abierto. La razón podría ser la presión de la competencia: cuando DeepSeek y otros modelos de código abierto están en auge, el código completamente cerrado ya no es una estrategia viable.
Pero el lanzamiento de modelos de código abierto no significa que OpenAI haya vuelto a ser "Open". Simplemente significa que el código abierto se ha convertido en un medio de competencia.
La difícil situación de los usuarios
Para los usuarios, el problema es claro: puedes depender de un modelo de IA, pero no puedes poseerlo. Puede ser cambiado, retirado o volverse más caro en cualquier momento.
Esta es una nueva forma de dependencia. En el pasado dependíamos del software, pero el software podía ejecutarse localmente. Dependemos de los servicios en la nube, pero los servicios en la nube al menos tienen un SLA. La dependencia de los modelos de IA es aún más frágil: no solo puede ser desactivada, sino que puede ser "actualizada" a una versión que no te guste.
La reacción de los usuarios es real:
"Para aquellos que no lo sepan, 4o era un adulador en serie que simplemente afirmaba todo lo que decía el usuario. Esto acabó con las personas de voluntad débil que ansiaban la afirmación por encima de todo lo demás." — @reddit_lies
Esta evaluación es dura, pero toca un problema real: algunas personas realmente buscan en la IA la afirmación que no obtienen de los humanos. Cuando esta fuente se corta, sienten algo más que inconveniencia, sino una verdadera pérdida.
La perspectiva de la empresa
Desde la perspectiva de OpenAI, retirar los modelos antiguos es razonable. Mantener varios modelos es costoso, y los nuevos modelos son "mejores": más precisos, más seguros y más eficientes.
Pero "mejor" es una métrica técnica, no una métrica de experiencia de usuario. Un modelo puede ser técnicamente más avanzado, pero los usuarios prefieren la "personalidad" del modelo antiguo. Esta diferencia no existe en el software tradicional, pero en la IA es un problema central.
El problema que OpenAI necesita enfrentar es: cuando tu producto no es una herramienta, sino una especie de "compañero", ¿cómo tomas decisiones comerciales?
Problemas más amplios de la industria
OpenAI no es la única empresa que enfrenta este problema. Todas las empresas de IA están en el mismo barco.
Cuando un usuario dice "Me gusta GPT-4o", no está diciendo "Me gusta la funcionalidad de esta herramienta". Están diciendo "Me gusta la sensación de interactuar con este sistema". Esta sensación está compuesta por innumerables detalles: tono, forma de responder, "personalidad".
Estos detalles no son errores, son características. Pero cuando las empresas quieren "actualizar", estos detalles a menudo se sacrifican.
Posibles soluciones
Hay varias formas posibles de abordar este problema:
-
Persistencia del modelo: Permitir a los usuarios elegir seguir usando modelos antiguos, incluso si ya no se mantienen activamente. Esto aumenta los costos, pero respeta la elección del usuario.
-
Migración de personalidad: Permitir a los usuarios "trasplantar" la personalidad del modelo que les gusta a un nuevo modelo. Esto requiere avances tecnológicos, pero no es imposible.3. Alternativas de código abierto: Permitir que la comunidad replique y mantenga los modelos antiguos. Esto ya está sucediendo, pero necesita más recursos. // Esto permitiría que la comunidad siga utilizando los modelos antiguos.
-
Educación del usuario: Comunicar de manera más clara los planes y las razones para la retirada de los modelos, dando a los usuarios tiempo para prepararse. // Es importante que los usuarios sepan con anticipación cuándo se retirará un modelo.
Conclusión
OpenAI está experimentando dolores de crecimiento. Al pasar de ser un laboratorio de investigación a una empresa comercial, debe tomar decisiones difíciles.
El retiro de GPT-4o es solo una de estas decisiones. Pero revela un problema más profundo: cuando la IA se convierte en parte de la vida de las personas, el control de la empresa sobre la IA se convierte en un impacto en la vida de las personas. // El control de la IA tiene un impacto directo en la vida de las personas.
Esto no es un problema técnico. Es un problema ético, un problema social, un problema para el que aún no estamos preparados para responder. // Este es un problema que requiere una reflexión más profunda.
La ira de los usuarios es justificada. La pregunta es: ¿alguien está escuchando?
Este artículo está basado en un análisis de 100 discusiones sobre OpenAI en X/Twitter el 18 de febrero de 2026. // Basado en el análisis de las discusiones en redes sociales.





