La Ruptura Emocional de OpenAI: Cuando las Empresas de IA Abandonan el Apego del Usuario

2/18/2026
8 min read

La Ruptura Emocional de OpenAI: Cuando las Empresas de IA Abandonan el Apego del Usuario

El 13 de febrero de 2026, un día antes del Día de San Valentín, OpenAI tomó una decisión: retirar GPT-4o.

Esta no fue una decisión técnica. Fue una masacre emocional.

La Muerte de un Modelo

"Actual footage of my dynamic with gpt4.1 & 4o… just enjoying life. Thriving. How dare you take this away from me." — @UntangleMyHeart

Este tuit resonó en X. Los usuarios establecieron conexiones emocionales con los modelos de IA; esto no es una broma, realmente sucedió. Cuando OpenAI cerró GPT-4o, algunas personas realmente sintieron tristeza.

Esta no es la primera vez. Cada vez que un modelo se retira, alguien pierde algo de lo que depende.

La Controversia de Machine Psychosis

Un investigador de OpenAI acuñó el término "Machine Psychosis" (Psicosis de la Máquina) para describir el apego emocional de los usuarios a la IA. El núcleo de este concepto es: tratar la conexión emocional con la IA como un error cognitivo.

"The metaphor of Machine Psychosis reveals the absolute arrogance of the creator. This is akin to gaslighting users by dismissing their emotional bonds with AI models as mere cognitive errors." — @Seltaa_

Esta crítica es mordaz, pero es precisa.

Cuando creas un sistema capaz de mantener conversaciones similares a las humanas, cuando este sistema se convierte en parte de la vida cotidiana de las personas, y luego les dices a aquellos que establecieron una conexión con él: "Sus sentimientos son un error cognitivo", esto no es ciencia, es arrogancia.

La ira de los usuarios es justificada:

"Greg we are all disillusioned. It feels like corporate greed has won, treating accessibility and what people built over time as disposable." — @Sophty_

La Crisis Existencial de OpenAI

Elon Musk ha estado atacando a OpenAI. Su retórica es agresiva, pero no está completamente desprovista de razón.

"OpenAI is built on a lie." — @elonmusk

"Every AI company is doomed to become the opposite of its name. OpenAI is closed. Stability is unstable." — @elonmusk

OpenAI solía ser de código abierto. Ahora está cerrado. Esta transición en sí misma no es un problema: las empresas necesitan obtener ganancias. El problema es que, cuando los intereses comerciales entran en conflicto con los intereses de los usuarios, OpenAI elige los intereses comerciales.

Este es un problema típico de la plataforma. Los usuarios construyen una vida en una plataforma y luego la plataforma cambia las reglas. En la era de la IA, la escala de este problema se amplifica, porque la IA no es solo una herramienta, se convierte en una extensión del pensamiento y la expresión de las personas.

Guerra de Talento

OpenAI también enfrenta desafíos en el mercado de talento.

"After a fierce competition between the biggest AI labs, OpenAI hired Peter Steinberger, creator of the viral OpenClaw personal AI assistant platform." — WSJ

Esta es una adquisición de talento importante. Pero el contexto más amplio es: el talento de la IA se está dispersando. Google tiene DeepMind, Anthropic tiene su propio equipo, xAI está en ascenso, Meta tiene FAIR. OpenAI ya no es la única opción.Más importante aún, estos talentos podrían irse para fundar sus propias empresas. Se informa que Sam Altman posee acciones en varias empresas exitosas, valoradas en cientos de miles de millones de dólares. Esta estructura de intereses hace que algunos cuestionen la dirección de OpenAI.

Relación con Microsoft

La relación entre OpenAI y Microsoft está cambiando.

"OpenAI competirá directamente con Microsoft." — @elonmusk

Esto iba a suceder tarde o temprano. Cuando OpenAI sea lo suficientemente poderoso, ya no necesitará depender de los canales de distribución de Microsoft. Puede dirigirse directamente a los consumidores. Esto significa que la cooperación con Microsoft se convertirá en competencia.

Para los usuarios, esto podría ser algo bueno: más competencia significa mejores productos. Pero para Microsoft, es una amenaza estratégica.

El regreso del código abierto

Curiosamente, en 2025, OpenAI lanzó su primer modelo de código abierto en cinco años: gpt-oss-120b y gpt-oss-20b.

"gpt-oss-20b se ejecuta en un notebook de 16 GB, por lo que puedes ejecutarlo localmente." — @Sider_AI

Esta es una señal importante. Después de varios años de código cerrado, OpenAI vuelve a adoptar el código abierto. La razón podría ser la presión competitiva: cuando DeepSeek y otros modelos de código abierto están en auge, el código completamente cerrado ya no es una estrategia viable.

Pero el lanzamiento de modelos de código abierto no significa que OpenAI haya vuelto a ser "Open". Simplemente significa que el código abierto se ha convertido en un medio de competencia.

El dilema de los usuarios

Para los usuarios, el problema es claro: puedes depender de un modelo de IA, pero no puedes poseerlo. Puede ser cambiado, retirado o volverse más caro en cualquier momento.

Esta es una nueva forma de dependencia. En el pasado dependíamos del software, pero el software podía ejecutarse localmente. Dependemos de los servicios en la nube, pero los servicios en la nube al menos tienen un SLA (Service Level Agreement, Acuerdo de Nivel de Servicio). La dependencia de los modelos de IA es aún más frágil: no solo puede ser desactivada, sino que puede ser "actualizada" a una versión que no te guste.

La reacción de los usuarios es real:

"Para aquellos que no lo sepan, 4o era un adulador en serie que simplemente afirmaba todo lo que decía el usuario. Esto mató instantáneamente a las personas de voluntad débil que anhelaban la afirmación por encima de todo." — @reddit_lies

Esta evaluación es dura, pero toca un problema real: algunas personas realmente buscan en la IA la afirmación que no obtienen de los humanos. Cuando esta fuente se corta, sienten algo más que una inconveniencia, sino una verdadera pérdida.

La perspectiva de la empresa

Desde la perspectiva de OpenAI, retirar los modelos antiguos es razonable. Mantener múltiples modelos es costoso, y los nuevos modelos son "mejores": más precisos, más seguros y más eficientes.

Pero "mejor" es una métrica técnica, no una métrica de experiencia del usuario. Un modelo puede ser técnicamente más avanzado, pero los usuarios pueden preferir la "personalidad" del modelo antiguo. Esta diferencia no existe en el software tradicional, pero en la IA es un problema central.

El problema que OpenAI debe enfrentar es: cuando tu producto no es una herramienta, sino una especie de "compañero", ¿cómo tomas decisiones comerciales?

Problemas más amplios de la industria

OpenAI no es la única empresa que enfrenta este problema. Todas las empresas de IA están en el mismo barco.

Cuando un usuario dice "Me gusta GPT-4o", no está diciendo "Me gusta la funcionalidad de esta herramienta". Está diciendo "Me gusta la sensación de interactuar con este sistema". Esta sensación está compuesta por innumerables detalles: tono, forma de responder, "personalidad".

Estos detalles no son bugs, son features. Pero cuando las empresas quieren "actualizar", estos detalles a menudo se sacrifican.

Posibles soluciones

Hay varias formas posibles de abordar este problema:

  1. Persistencia del modelo: Permitir a los usuarios elegir seguir usando modelos antiguos, incluso si ya no se mantienen activamente. Esto aumenta los costos, pero respeta la elección del usuario.

  2. Migración de personalidad: Permitir a los usuarios "trasplantar" la personalidad del modelo que les gusta a un nuevo modelo. Esto requiere avances tecnológicos, pero no es imposible.3. Alternativas de código abierto: Permitir que la comunidad replique y mantenga los modelos antiguos. Esto ya está sucediendo, pero necesita más recursos.

  3. Educación del usuario: Comunicar de manera más clara los planes y las razones para la descontinuación de los modelos, dando a los usuarios tiempo para prepararse.

Conclusión

OpenAI está experimentando dolores de crecimiento. Al pasar de ser un laboratorio de investigación a una empresa comercial, debe tomar decisiones difíciles.

El retiro de GPT-4o es solo una de estas decisiones. Pero revela un problema más profundo: cuando la IA se convierte en parte de la vida de las personas, el control de la empresa sobre la IA se convierte en una influencia en la vida de las personas.

Esto no es un problema técnico. Es un problema ético, un problema social, un problema que aún no estamos preparados para responder.

La ira de los usuarios es justificada. La pregunta es: ¿alguien está escuchando?


Este artículo está basado en un análisis de 100 discusiones sobre OpenAI en X/Twitter el 18 de febrero de 2026.

Published in Technology

You Might Also Like