هندسة الوكلاء الأربعة في Grok 4.2: هل هي طفرة أم تراجع؟
ARC-AGI-2 هو اختبار استدلال مجرد صممه François Chollet، ويعتبر مؤشرًا مهمًا لقياس قدرة الذكاء الاصطناعي على التعميم. يتفوق Grok 4 في هذا الاختبار.
لكن الاختبارات المعيارية والاستخدام اليومي شيئان مختلفان.
شارك أحد المطورين سير عمله:
"I saw a guy coding today. Tab 1 ChatGPT. Tab 2 Gemini. Tab 3 Claude. Tab 4 Grok. Tab 5 DeepSeek. He asked every AI the same question, patiently waited, then pasted each response into 5 different Python files. Hit run on all five. Pick the best one." — @Adidotdev
هذا هو واقع سوق الذكاء الاصطناعي الحالي: لا يوجد ملك مطلق. يستخدم المطورون نماذج متعددة في نفس الوقت، كل منها يستغل نقاط قوته.
عتبة الاشتراك
الوصول إلى Grok 4.2:
"Requires Premium+ or SuperGrok subscription." — @grok
هذا ليس مجانيًا. لاستخدام أحدث إصدار من Grok على X، تحتاج إلى اشتراك مدفوع. هذا يضع Grok كمنتج متميز، ولكنه يحد أيضًا من قاعدة مستخدميه.
مقارنة بالذكاء الاصطناعي الآخر:
- ChatGPT: الإصدار المجاني متاح مع GPT-4o، وميزات أكثر تقدمًا متاحة لمستخدمي Plus
- Claude: الإصدار المجاني متاح مع Sonnet، والإصدار Pro متاح مع Opus
- Grok: يجب أن يكون لديك Premium+ لاستخدام أحدث إصدار
هذه استراتيجية تمييز: لا يسعى Grok إلى تحقيق أقصى عدد من المستخدمين، بل يسعى إلى مجموعة مستخدمين محددة - أولئك المستعدين للدفع مقابل موقف "based" وبيانات X في الوقت الفعلي.
تكلفة "Based"
إحدى نقاط البيع الرئيسية في Grok هي "عدم صحته السياسية" - أو بالأحرى، أنه لا يخضع لمحاذاة أمان صارمة مثل الذكاء الاصطناعي الآخر.
"Grok is the only AI to emphatically say 'No'" to certain politically sensitive questions.
هذا يثير مشكلتين:
- هل هذه الإجابات "القائمة على الحقائق" هي حقائق حقًا؟ أم أنها مجرد تلبية لتحيزات مجموعة مستخدمين معينة؟
- ما مدى موثوقية الذكاء الاصطناعي عندما يكون لديه موقف واضح؟ الحياد ليس مثاليًا، لكن التحيز الواضح يمثل مشكلة أيضًا.
هذه ليست مشكلة تقنية، بل هي فلسفة تصميم المنتج. اختارت xAI مسارًا مختلفًا - عدم صنع ذكاء اصطناعي "آمن ولكنه ممل"، بل صنع ذكاء اصطناعي "له موقف ولكنه قد يكون به مشاكل".
أهمية بنية الوكلاء المتعددين
بغض النظر عن الموقف السياسي لـ Grok، فإن بنية الوكلاء الأربعة نفسها تستحق مناقشة جادة.
نظام الوكلاء المتعددين ليس مفهومًا جديدًا في أبحاث الذكاء الاصطناعي. الفكرة الأساسية هي: أن يكون التعاون بين العديد من "الخبراء" المتخصصين أكثر فعالية من نموذج عام واحد.
من الناحية النظرية، هذا يحل عدة مشاكل:
- التخصص: يمكن لكل وكيل التركيز على نوع معين من المهام
- التحقق المتبادل: يمكن للعديد من الوكلاء التحقق من أخطاء بعضهم البعض
- المتانة: لا يؤدي خطأ أحد الوكلاء إلى فشل عام
لكن من الناحية العملية، فإنه يقدم مشاكل جديدة:
- التأخير: يجب معالجة أربعة وكلاء، ويستغرق الأمر وقتًا أطول
- تكاليف التنسيق: كيفية جعل أربعة وكلاء يتعاونون بشكل فعال هي مشكلة لم يتم حلها
- صعوبة التصحيح: عندما تكون النتائج سيئة، من الصعب معرفة أي جزء به مشكلة
تشير التعليقات المبكرة على Grok 4.2 إلى أن هذه المشكلات لم يتم حلها جيدًا حتى الآن.
تجربة سوق الأوراق المالية
تجربة ممتعة:
"We gave a bunch of AIs $100K in the stock market to see if they could beat the S&P 500. So far Grok 4 is up 3.7% during the time of the test beating the S&P 500's +2.4% return." — @ralliesaiهذه التجربة لا تزال جارية، والتوصل إلى استنتاجات مبكر للغاية. لكنها تعرض حالة استخدام: الذكاء الاصطناعي كأداة مساعدة في قرارات الاستثمار. ## الخلاصة Grok 4.2 هو تحديث مثير للجدل. هندسة الوكلاء المتعددين هي تجربة جريئة، لكن تعليقات المستخدمين الأوائل تشير إلى وجود مشاكل في التنفيذ. لقد أصبح أسرع وأكثر تعقيدًا، لكن التعقيد لا يعني بالضرورة الأفضل. إن تحديد موضع "Based" هو استراتيجية تمييز، ولكنه يعني أيضًا أن Grok يخدم مجموعة مستخدمين محددة، وليس الجميع. الأمر الأكثر إثارة للاهتمام هو وعد xAI بـ "تحديثات أسبوعية". إذا تم إصلاح أخطاء بنية الوكلاء الأربعة بسرعة، وإذا تحسنت سرعة الاستجابة بشكل ملحوظ، وإذا تم الوفاء بوعد "أكثر ذكاءً بترتيب حجمي" - فقد يشير Grok 4.2 إلى اتجاه جديد في تصميم منتجات الذكاء الاصطناعي. ولكن الآن؟ إنه أشبه بإصدار وصول مبكر، وليس منتجًا ناضجًا. --- *هذه المقالة مبنية على تحليل 100 مناقشة حول إصدار Grok 4.2 على X/Twitter في 18 فبراير 2026.*





