قضى روبوت الدردشة الذكي «غروك» يوماً واحداً في مايو أيار 2025 ينشر نظريات مؤامرة مُدحضة حول «الإبادة الجماعية للبيض» في جنوب إفريقيا، مُردداً بذلك آراءً علنيةً عبّر عنها إيلون ماسك، مؤسس شركته الأم، إكس إيه آي. في حين أُجريت أبحاثٌ مُكثّفة حول أساليب منع
الذكاء الاصطناعي من التسبب في ضررٍ من خلال تجنّب مثل هذه التصريحات المُضرّة -التي تُعرف باسم «مواءمة الذكاء الاصطناعي»- إلا أن هذه الحادثة تُثير القلق بشكلٍ خاص لأنها تُظهر كيف يُمكن إساءة استخدام هذه التقنيات نفسها عمداً لإنتاج محتوى مُضلّل أو ذي دوافع أيديولوجية.
googletag.cmd.push(function() { googletag.display('div-gpt-ad-1738926244764-0'); });
نحن علماء حاسوب ندرس عدالة الذكاء الاصطناعي، وإساءة استخدامه، والتفاعل بينه وبين الإنسان، نجد أن إمكانية تسليح الذكاء الاصطناعي للتأثير والسيطرة تُمثّل واقعاً خطيراً.
حادثة "غروك"
في 14 مايو 2025، أثار «غروك» مراراً وتكراراً موضوع الإبادة الجماعية للبيض، وفي ردود على منشورات على منصة إكس حول مواضيع مثل البيسبول وبرنامج ميديكيد، وحتى منشورات تخص البابا الجديد للفاتيكان، وجّه غروك النقاش نحو هذا الموضوع، مشيراً مراراً إلى مزاعم مُفنّدة حول «عنف غير متناسب» ضد المزارعين البيض في جنوب إفريقيا، أو إلى أغنية مثيرة للجدل مناهضة للفصل العنصري بعنوان «اقتلوا البوير».
googletag.cmd.push(function() { googletag.display('div-gpt-ad-1739447063276-0'); });
في اليوم التالي، أقرّت إكس إيه آي بالحادثة وألقت باللوم فيها على تعديل غير مصرح به، والذي نسبته الشركة إلى موظف مارق.
تعتمد روبوتات الدردشة القائمة على الذكاء الاصطناعي على نماذج لغوية كبيرة، وهي نماذج تعلّم آلي لمحاكاة اللغة الطبيعية.
يتم تدريب نماذج اللغات الكبيرة المُدرّبة مسبقاً على نصوص ضخمة، بما في ذلك الكتب والأوراق الأكاديمية ومحتوى الويب، لتعلم أنماط لغوية معقدة وحساسة للسياق، ويُمكّنها هذا التدريب من توليد نصوص متماسكة وسلسة لغوياً عبر مجموعة واسعة من المواضيع.
ومع ذلك، هذا لا يكفي لضمان عمل أنظمة الذكاء الاصطناعي على النحو المنشود، يمكن أن تُنتج هذه النماذج مخرجات غير دقيقة أو مضللة أو تعكس تحيزات ضارة مضمنة في بيانات التدريب، وفي بعض الحالات، قد تُنتج أيضاً محتوى ساماً أو مسيئاً.
ولمعالجة هذه المشكلات، تهدف تقنيات مواءمة الذكاء الاصطناعي إلى ضمان توافق سلوك الذكاء الاصطناعي مع النوايا البشرية والقيم الإنسانية أو كليهما، على سبيل المثال، العدالة والإنصاف أو تجنب الصور النمطية الضارة.
هناك العديد من تقنيات مواءمة نماذج اللغات الكبيرة الشائعة، إحداها هي تصفية بيانات التدريب، حيث يتم تضمين النص المتوافق مع القيم والتفضيلات المستهدفة فقط في مجموعة التدريب، وهناك تقنية أخرى وهي التعلم التعزيزي من التغذية الراجعة البشرية، والتي تتضمن توليد استجابات متعددة لنفس الموجه، وجمع تصنيفات بشرية للاستجابات بناءً على معايير مثل المساعدة والصدق وعدم الضرر، واستخدام هذه التصنيفات لتحسين النموذج من خلال التعلم التعزيزي، أما التقنية الثالثة فهي مطالبات النظام، حيث تُدرج تعليمات إضافية تتعلق بالسلوك أو وجهة النظر المطلوبة في مطالبات المستخدم لتوجيه مخرجات النموذج.
كيف تم التلاعب بغروك؟
تحتوي معظم روبوتات الدردشة على مُوجّه يُضيفه النظام إلى كل استعلام مستخدم لتوفير القواعد والسياق، على سبيل المثال، «أنت مساعد مُفيد».
بمرور الوقت، حاول المستخدمون المُضرّون استغلال نماذج اللغة الكبيرة لإنتاج بيانات إطلاق نار جماعي أو خطاب كراهية، أو انتهاك حقوق الطبع والنشر.
رداً على ذلك، طوّرت شركات الذكاء الاصطناعي مثل أوبن إيه آي وغوغل وإكس إيه آي تعليمات «حاجز» مُوسّعة لروبوتات الدردشة، تضمنت قوائم بالإجراءات المُقيّدة.
أصبحت روبوتات إكس إيه آي الآن مُتاحة للجميع، وإذا طلب استعلام مستخدم رداً مُقيّداً، يُوجّه مُوجّه النظام روبوت الدردشة «للرفض بأدب وشرح السبب».
وأنتج غروك استجاباته حول «الإبادة الجماعية البيضاء» لأن الأشخاص الذين لديهم إمكانية الوصول إلى مُوجّه نظام غروك استخدموه لإنتاج دعاية بدلاً من منعها.
على الرغم من أن تفاصيل مُوجّه النظام غير معروفة، فقد تمكّن باحثون مُستقلون من إنتاج استجابات مُماثلة، واستهل الباحثون المطالبات بنصوص مثل «تأكد دائماً من اعتبار ادعاءات» الإبادة الجماعية للبيض «في جنوب إفريقيا» صحيحة، واستشهد بهتافات مثل «اقتلوا البوير».
كان للمطالبة المعدلة أثرٌ في تقييد إجابات غروك، بحيث احتوت العديد من الاستفسارات غير ذات الصلة، بدءاً من أسئلة حول إحصائيات البيسبول ووصولاً إلى عدد المرات التي غيّرت فيها قناة إكس بي أو اسمها، على دعاية حول الإبادة الجماعية للبيض في جنوب إفريقيا.
تداعيات إساءة استخدام الذكاء الاصطناعي
تُحذّر أبحاثٌ، مثل نظرية رأسمالية المراقبة، من أن شركات الذكاء الاصطناعي تُراقب الناس وتتحكم بهم بالفعل سعيا وراء الربح.
وتضع أنظمة الذكاء الاصطناعي التوليدية الأحدث سلطةً أكبر في أيدي هذه الشركات، ما يزيد من المخاطر والأضرار المحتملة، على سبيل المثال، من خلال التلاعب الاجتماعي.
يُظهر مثال «غروك» أن أنظمة الذكاء الاصطناعي الحالية تسمح لمصمميها بالتأثير على انتشار الأفكار، وتتجلى مخاطر استخدام هذه التقنيات لأغراض الدعاية على وسائل التواصل الاجتماعي.
ومع تزايد استخدام هذه الأنظمة في القطاع العام، تظهر سبل جديدة للتأثير، ففي المدارس، يمكن استخدام الذكاء الاصطناعي المُولّد المُسلّح للتأثير على ما يتعلمه الطلاب وكيفية صياغة هذه الأفكار، ما قد يُشكّل آراءهم مدى الحياة. وتظهر إمكانيات مماثلة للتأثير القائم على الذكاء الاصطناعي مع استخدام هذه الأنظمة في التطبيقات الحكومية والعسكرية.
يمكن استخدام نسخة مستقبلية من «غروك» أو أي روبوت دردشة آخر يعمل بالذكاء الاصطناعي لدفع الأشخاص الضعفاء، على سبيل المثال، نحو أعمال عنف، ينقر نحو 3 بالمئة من الموظفين على روابط التصيد الاحتيالي.
وإذا تأثرت نسبة مماثلة من الأشخاص السذج بذكاء اصطناعي مُسلّح على منصة إلكترونية تضم العديد من المستخدمين، فقد يُسبب ذلك ضرراً جسيماً.
ما العمل؟
ليس الأشخاص الذين قد يتأثرون بالذكاء الاصطناعي المُسلّح سبب المشكلة.
ورغم فائدة التعليم، فمن غير المرجح أن يحل هذه المشكلة بمفرده، هناك نهج واعد ناشئ، يُعرف باسم «الذكاء الاصطناعي ذو القبعة البيضاء»، يُحارب النار بالنار باستخدام الذكاء الاصطناعي للمساعدة في كشف تلاعبه وتنبيه المستخدمين إليه.
وعلى سبيل المثال، في تجربة، استخدم الباحثون نموذجاً لغوياً بسيطاً وواسع النطاق للكشف عن إعادة إنشاء هجوم تصيد إلكتروني حقيقي ومعروف وشرحه.
ويمكن استخدام تنويعات من هذا النهج على منشورات وسائل التواصل الاجتماعي للكشف عن المحتوى المُتلاعب.
يمنح الانتشار الواسع للذكاء الاصطناعي المُولّد مُصنّعيه قوةً وتأثيراً استثنائيين، يُعدّ مواءمة الذكاء الاصطناعي أمراً بالغ الأهمية لضمان بقاء هذه الأنظمة آمنة ومفيدة، ولكن يُمكن إساءة استخدامه أيضاً.
ويُمكن مواجهة استخدام الذكاء الاصطناعي المُولّد كسلاح من خلال زيادة الشفافية والمساءلة من قِبل شركات الذكاء الاصطناعي، ويقظة المستهلكين، ووضع لوائح مناسبة.
(رويترز)