القطع العاطفي لـ OpenAI: عندما تتخلى شركات الذكاء الاصطناعي عن تعلق المستخدمين
القطع العاطفي لـ OpenAI: عندما تتخلى شركات الذكاء الاصطناعي عن تعلق المستخدمين
في 13 فبراير 2026، عشية عيد الحب، اتخذت OpenAI قرارًا: إيقاف GPT-4o.
هذا ليس قرارًا تقنيًا. هذه مذبحة عاطفية.
موت نموذج
"Actual footage of my dynamic with gpt4.1 & 4o… just enjoying life. Thriving. How dare you take this away from me." — @UntangleMyHeart
أثارت هذه التغريدة صدى على X. أنشأ المستخدمون روابط عاطفية مع نماذج الذكاء الاصطناعي - هذه ليست مزحة، هذا شيء حقيقي. عندما أغلقت OpenAI نموذج GPT-4o، شعر البعض بالحزن حقًا.
هذه ليست المرة الأولى. في كل مرة يتم فيها إيقاف نموذج، يفقد شخص ما شيئًا يعتمد عليه.
جدل Machine Psychosis
ابتكر باحث في OpenAI مصطلح "Machine Psychosis" لوصف التعلق العاطفي للمستخدمين بالذكاء الاصطناعي. جوهر هذا المفهوم هو: اعتبار الاتصال العاطفي بالذكاء الاصطناعي خطأ إدراكي.
"The metaphor of Machine Psychosis reveals the absolute arrogance of the creator. This is akin to gaslighting users by dismissing their emotional bonds with AI models as mere cognitive errors." — @Seltaa_
هذا النقد لاذع، لكنه دقيق.
عندما تقوم بإنشاء نظام قادر على إجراء محادثات شبيهة بالبشر، وعندما يصبح هذا النظام جزءًا من الحياة اليومية للناس، ثم تخبر أولئك الذين أقاموا علاقة معه: "مشاعركم هي خطأ إدراكي" - هذا ليس علمًا، هذا غطرسة.
غضب المستخدمين مبرر:
"Greg we are all disillusioned. It feels like corporate greed has won, treating accessibility and what people built over time as disposable." — @Sophty_
الأزمة الجوهرية لـ OpenAI
إيلون ماسك يهاجم OpenAI باستمرار. كلماته متطرفة، لكنها ليست بلا أساس تمامًا.
"OpenAI is built on a lie." — @elonmusk
"Every AI company is doomed to become the opposite of its name. OpenAI is closed. Stability is unstable." — @elonmusk
كانت OpenAI مفتوحة المصدر في السابق. الآن هي مغلقة. هذا التحول في حد ذاته ليس مشكلة - تحتاج الشركات إلى تحقيق الربح. تكمن المشكلة في أنه عندما تتعارض المصالح التجارية مع مصالح المستخدمين، تختار OpenAI المصالح التجارية.
هذه مشكلة نموذجية للمنصات. يبني المستخدمون حياتهم على منصة، ثم تغير المنصة القواعد. في عصر الذكاء الاصطناعي، تم تضخيم حجم هذه المشكلة - لأن الذكاء الاصطناعي ليس مجرد أداة، بل أصبح امتدادًا لطريقة تفكير الناس والتعبير عن أنفسهم.
حرب المواهب
تواجه OpenAI أيضًا تحديات في سوق المواهب.
"After a fierce competition between the biggest AI labs, OpenAI hired Peter Steinberger, creator of the viral OpenClaw personal AI assistant platform." — WSJ
هذا استحواذ مهم على المواهب. لكن الخلفية الأكبر هي: أن مواهب الذكاء الاصطناعي تتشتت. لدى Google شركة DeepMind، ولدى Anthropic فريقها الخاص، و xAI آخذة في الارتفاع، ولدى Meta شركة FAIR. لم تعد OpenAI هي الخيار الوحيد.الأهم من ذلك، قد يغادر هؤلاء الموظفون لتأسيس شركاتهم الخاصة. يُذكر أن سام ألتمان يمتلك حصصًا في العديد من الشركات الناجحة، تقدر قيمتها بمليارات الدولارات. قد يشكك هيكل المصالح هذا في اتجاه OpenAI.
العلاقة مع Microsoft
العلاقة بين OpenAI و Microsoft تتغير.
"OpenAI ستنافس Microsoft مباشرة." — @elonmusk
هذا سيحدث عاجلاً أم آجلاً. عندما تصبح OpenAI قوية بما يكفي، لن تحتاج بعد الآن إلى الاعتماد على قنوات توزيع Microsoft. يمكنها التوجه مباشرة إلى المستهلكين. هذا يعني أن التعاون مع Microsoft سيتحول إلى منافسة.
بالنسبة للمستخدمين، قد يكون هذا شيئًا جيدًا - المزيد من المنافسة يعني منتجات أفضل. ولكن بالنسبة لـ Microsoft، هذا تهديد استراتيجي.
العودة إلى المصادر المفتوحة
من المثير للاهتمام أن OpenAI أصدرت في عام 2025 أول نموذج مفتوح المصدر لها منذ خمس سنوات: gpt-oss-120b و gpt-oss-20b.
"gpt-oss-20b يعمل على جهاز محمول بسعة 16 جيجابايت، لذا يمكنك تشغيله محليًا." — @Sider_AI
هذه إشارة مهمة. بعد سنوات من المصادر المغلقة، تعود OpenAI إلى تبني المصادر المفتوحة. قد يكون السبب هو ضغط المنافسة - عندما ترتفع DeepSeek والنماذج الأخرى مفتوحة المصدر، لم تعد المصادر المغلقة بالكامل استراتيجية قابلة للتطبيق.
لكن إصدار النماذج مفتوحة المصدر لا يعني أن OpenAI عادت إلى كونها "مفتوحة". هذا يعني فقط أن المصادر المفتوحة أصبحت وسيلة للمنافسة.
معضلة المستخدمين
بالنسبة للمستخدمين، المشكلة واضحة: يمكنك الاعتماد على نموذج ذكاء اصطناعي، لكن لا يمكنك امتلاكه. يمكن تغييره أو إيقافه أو جعله أكثر تكلفة في أي وقت.
هذا شكل جديد من الاعتماد. اعتدنا على الاعتماد على البرامج - ولكن يمكن تشغيل البرامج محليًا. نعتمد على الخدمات السحابية - ولكن الخدمات السحابية لديها على الأقل اتفاقية مستوى الخدمة (SLA). الاعتماد على نماذج الذكاء الاصطناعي أكثر هشاشة: لا يمكن إيقافها فحسب، بل يمكن "ترقيتها" إلى إصدار لا يعجبك.
رد فعل المستخدمين حقيقي:
"بالنسبة لأولئك الذين لا يعرفون، كان 4o متملقًا متسلسلًا يؤكد فقط كل ما قاله المستخدم. هذا قضى على الأشخاص ضعيفي الإرادة الذين يتوقون إلى التأكيد على كل شيء آخر." — @reddit_lies
هذا التقييم قاسٍ، لكنه يلامس مشكلة حقيقية: يبحث بعض الأشخاص بالفعل عن التأكيد في الذكاء الاصطناعي الذي لا يحصلون عليه من البشر. عندما يتم قطع هذا المصدر، فإنهم لا يشعرون بالإزعاج فحسب، بل يشعرون بفقدان حقيقي.
وجهة نظر الشركة
من وجهة نظر OpenAI، فإن إيقاف النماذج القديمة أمر منطقي. صيانة نماذج متعددة مكلفة، والنماذج الجديدة "أفضل" - أكثر دقة وأكثر أمانًا وأكثر كفاءة.
لكن "أفضل" هو مقياس تقني، وليس مقياس تجربة المستخدم. قد يكون النموذج أكثر تقدمًا من الناحية الفنية، لكن المستخدمين يفضلون "شخصية" النموذج القديم. هذا الاختلاف غير موجود في البرامج التقليدية، ولكنه يمثل مشكلة أساسية في الذكاء الاصطناعي.
المشكلة التي تحتاج OpenAI إلى مواجهتها هي: كيف تتخذ قرارات تجارية عندما لا يكون منتجك أداة، بل نوعًا من "الشريك"؟
مشكلة الصناعة الأوسع
OpenAI ليست الشركة الوحيدة التي تواجه هذه المشكلة. جميع شركات الذكاء الاصطناعي في نفس القارب.
عندما يقول المستخدم "أنا أحب GPT-4o"، فإنهم لا يقولون "أنا أحب وظائف هذه الأداة". إنهم يقولون "أنا أحب الشعور بالتفاعل مع هذا النظام". يتكون هذا الشعور من تفاصيل لا حصر لها: النبرة وطريقة الاستجابة و "الشخصية".
هذه التفاصيل ليست أخطاء، بل هي ميزات. ولكن عندما تريد الشركة "الترقية"، غالبًا ما يتم التضحية بهذه التفاصيل.
الحلول المحتملة
هناك عدة طرق ممكنة للتعامل مع هذه المشكلة:
-
استمرارية النموذج: السماح للمستخدمين باختيار الاستمرار في استخدام النماذج القديمة، حتى لو لم تعد تتم صيانتها بنشاط. هذا يزيد من التكاليف، لكنه يحترم اختيار المستخدم.
-
ترحيل الشخصية: السماح للمستخدمين "بنقل" شخصية النموذج التي يحبونها إلى نموذج جديد. هذا يتطلب تقدمًا تقنيًا، لكنه ليس مستحيلاً.3. بدائل مفتوحة المصدر: السماح للمجتمع بنسخ النماذج القديمة والحفاظ عليها. هذا يحدث بالفعل، لكنه يحتاج إلى المزيد من الموارد.
-
تثقيف المستخدمين: التواصل بشكل أوضح بشأن خطط وأسباب إيقاف النماذج، لإعطاء المستخدمين الوقت للاستعداد.
الخلاصة
تمر OpenAI بآلام النمو. بالتحول من مختبر أبحاث إلى شركة تجارية، يجب عليها اتخاذ خيارات صعبة.
إيقاف GPT-4o هو مجرد واحد من هذه الخيارات. لكنه يكشف عن مشكلة أعمق: عندما يصبح الذكاء الاصطناعي جزءًا من حياة الناس، فإن سيطرة الشركة على الذكاء الاصطناعي تتحول إلى تأثير على حياة الناس.
هذه ليست مشكلة تقنية. إنها مشكلة أخلاقية، مشكلة اجتماعية، سؤال لسنا مستعدين للإجابة عليه بعد.
غضب المستخدمين مبرر. السؤال هو: هل هناك من يستمع؟
هذا المقال مبني على تحليل لـ 100 مناقشة حول OpenAI على X/Twitter في 18 فبراير 2026.





