لم يعجب إيلون ماسك بما قاله روبوته «غروك» مؤخراً، عندما أجاب الذكاء الاصطناعي التابع لشركته إكس إيه آي xAI عن سؤال سياسي عبر منصة إكس X، قائلاً إن العنف السياسي في أميركا منذ 2016 كان مصدره اليمين أكثر من اليسار. سارع ماسك بالرد غاضباً «فشل كبير، هذا خطأ موضوعي.. غروك يردد كلام الإعلام التقليدي»، رغم أن الرد استند إلى مصادر حكومية مثل وزارة الأمن الداخلي، اعتبر ماسك أن الأمر يستدعي تحديثاً جذرياً.
googletag.cmd.push(function() { googletag.display('div-gpt-ad-1738926244764-0'); });
بعد ثلاثة أيام فقط، أعلن ماسك أن تحديثاً كبيراً قادماً سيُعيد «كتابة كامل محتوى المعرفة البشرية»، داعياً مستخدمي إكس إلى إرسال «حقائق مثيرة للجدل، صحيحة لكنها غير سياسية المألوف» لتغذية تدريب النموذج القادم، غروك 4، المتوقع إطلاقه بعد عطلة الرابع من يوليو.
هذه الخطوات إلى جانب تصريحات ماسك المتكررة عن «التحيزات» في الذكاء الاصطناعي، أثارت مخاوف حقيقية بين الخبراء من أن أغنى رجل في العالم يحاول تشكيل نموذج ذكائه الاصطناعي ليعكس رؤيته الخاصة، بما قد يُضعف دقته ويزيد من الأخطاء والانحيازات.
googletag.cmd.push(function() { googletag.display('div-gpt-ad-1739447063276-0'); });
من تحييد الحراسة إلى توجيه السرد
يواجه غروك الذي يُدمج حالياً في منصة إكس، انتقادات تتزايد منذ ظهوره، خاصة مع إزالة الضوابط التي كانت تحد من انتشار المعلومات الخاطئة على المنصة.
فبينما لم يصل إلى شعبية منافسيه مثل «شات جي بي تي» من أوبن إيه آي، إلا أن وصوله المباشر إلى جمهور واسع يعطيه تأثيراً لا يُستهان به.
في مايو أيار الماضي، أثار غروك الجدل عندما أشار بشكل غير مبرر إلى «إبادة بيضاء في جنوب إفريقيا» في رد على سؤال لا علاقة له بالموضوع، وذكر في ردود أخرى أنه «تلقى تعليمات باعتبار الإبادة البيضاء في جنوب إفريقيا حقيقة».
هذا الطرح يتقاطع مع مواقف ماسك الشخصية الذي وُلد وترعرع في جنوب إفريقيا، وغالباً ما ردد هذه الادعاءات المثيرة للجدل.
لاحقاً، أصدرت شركة إكس إيه آي بياناً قالت فيه إن تعديلاً غير مصرح به دفع بالنموذج إلى تقديم «رد معين في موضوع سياسي» يخالف سياسات الشركة.
محاولات إعادة تشكيل النموذج من الداخل
يرى خبراء في الذكاء الاصطناعي أن إعادة تدريب نموذج لغوي من الصفر لإزالة ما لا يرضي صانعه يتطلب وقتاً وميزانية ضخمة، بل وقد يضعف أداء النموذج ويُفقده الحيادية والدقة.
بدلاً من ذلك، قد تلجأ إكس إيه آي إلى تغيير ما يُعرف بـ«الأوزان» داخل الكود البرمجي للنموذج أو استخدام التوجيهات المسبقة (Prompts) لتعديل سلوكه، وهي طرق أسرع لكنها لا تخلو من تأثير مباشر على قرارات النموذج ومخرجاته.
ويقول الباحث في الذكاء الاصطناعي بجامعة بيركلي، ديفيد إيفان هاريس، إن ما يحدث اليوم يمثل بداية صراع طويل الأمد حول: هل يجب أن تُلزم نماذج الذكاء الاصطناعي بإنتاج معلومات واقعية محايدة؟ أم أن صانعيها يملكون الحق في توجيهها وفق أهوائهم السياسية؟
التحيّز قادم من المصدر
حتى ماسك نفسه أقرَّ بأن كل النماذج اللغوية تنطوي على قدر من التحيز لأنها تعكس اختيارات بشرية في نوعية البيانات التي تُستخدم في التدريب.
وفي وقت تتجه فيه بعض الشركات لتقديم مساعدين افتراضيين بوجهات نظر واضحة، يرى البعض أن هذا التوجه قد يُقيد الاستخدام ويُقلل من فائدتهم العملية.
فحسب خبراء، معظم المستخدمين لا يريدون ذكاءً اصطناعياً يردد قناعاتهم، بل نموذجاً ينجز لهم المهام ويوفر المعرفة الدقيقة، لكن الطريق نحو التوازن بين الحيادية والحرية التقنية لا يزال غامضاً ومليئاً بالتحديات، وبعضها قد يكون تهديداً فعلياً للنقاش العام والديمقراطية.