في أعقاب الانتخابات الرئاسية الأميركية لعام 2016، خضعت العديد من الشركات التكنولوجية إلى التدقيق، بسبب تأثيرها الهائل في المستخدمين والمجتمع والانتخابات، ما دفعها إلى اتخاذ عدة ضمانات.

حرصت شركات التكنولوجيا الكبرى على جلب موظفين يركّزون على التدقيق في المعلومات المتعلقة بالانتخابات، واستبعاد الآراء المتطرفة عبر الإنترنت، كما شكّل البعض فرقاً أخلاقية للذكاء الاصطناعي واستثمروا في مجموعات إشرافية، وساعدت هذه الفرق بالفعل على تعزيز سياسات الأمان الجديدة.

لكن خلال الأشهر القليلة الماضية، ألغت شركات التكنولوجيا الكبيرة عشرات الآلاف من الوظائف، منها هذه الفرق المعنية بالمتابعة والإشراف على سياسات الأمان.

قلّص موقع « تويتر» وظائف الفرق التي تركّز على قضايا الأمن والسياسة العامة وحقوق الإنسان عندما تولى إيلون ماسك المنصب العام الماضي.

وفي الآونة الأخيرة، سرّحت منصة البث المباشر «تويتش»، المملوكة لشركة «أمازون»، بعض الموظفين المسؤولين عن متابعة الذكاء الاصطناعي، وغيرها من أعمال الثقة والسلامة، كما ألغت «مايكروسوفت» فريق تطوير منتجات الذكاء الاصطناعي الأخلاقي.

ورجّحت « ميتا»، الشركة الأم لتطبيق «فيسبوك»، إمكانية استبعاد الموظفين العاملين في أدوار غير فنية كجزء من أحدث جولة لتسريح الموظفين.

تساؤلات بشأن الحماية

أثارت موجة تقليص الوظائف وتسريح الموظفين تساؤلات بين البعض داخل وخارج الصناعة حول التزام وادي السيليكون بتوفير حماية واسعة النطاق، فضلاً عن حماية المستخدم في وقت يظل فيه الإشراف على المحتوى والمعلومات المضللة مشكلةً يصعب حلها، بينما وجّه البعض أصابع الاتهام إلى ماسك الذي تزعم هذه القرارات بعد استحواذه على «تويتر».

قالت مديرة مجموعة أبحاث السلامة على الإنترنت «ذا تيك ترانسبيرنسي بروجيكت»، كاتي بول «إن الخطوة الأولى كانت من نصيب “تويتر” الذي شجّع الآخرين على اتخاذ هذه القرارات».

أدّى التوقيت دوراً مهماً في تعقيد الأمور، إذ جاء إلغاء هذه الوظائف في الوقت الذي يطرح فيه أباطرة التكنولوجيا عدداً من التقنيات الحديثة مثل الذكاء الاصطناعي، والواقع الافتراضي، وكلاهما أثار الذعر والمخاوف بشأن تأثيرهما المحتمل على المستخدمين.

قال الأستاذ المساعد في كلية المعلومات بجامعة واشنطن، جيفين ويست «إن السباق يحتدم بين الشركات التكنولوجية رغبةً في الوصول إلى القمة في ما يخص الذكاء الاصطناعي؛ لذلك فالتخلص من هذه الفرق يعتبر قراراً سيئاً خاصة عندما نكون على أعتاب بعض التكنولوجيات التحويلية المخيفة مثل الذكاء الاصطناعي وروبوتات الدردشة».

مخاوف الذكاء الاصطناعي

عندما سرّح ماسك الآلاف من موظفي «تويتر»، شمل ذلك المسؤولين عن الأمن وموثوقية الموقع، والسياسة العامة وقضايا حقوق الإنسان.

منذ ذلك الحين، أعرب الموظفون السابقون والمستخدمون والخبراء، بمن في ذلك الرئيس السابق لسلامة الموقع، يويل روث، عن مخاوفهم من أن تسريحات «تويتر» يمكن أن تقوّض قدرته على التعامل مع الإشراف على المحتوى.

من جهتهم، يشعر بعض الموظفين السابقين في «تويتش»، بالقلق الآن بشأن الآثار التي يمكن أن تحدثها عمليات التسريح الأخيرة على قدرتها على مكافحة خطاب الكراهية والمضايقات والتعامل مع المخاوف الناشئة من الذكاء الاصطناعي.

قال موظف مسرّح من «تويتش» اعتاد العمل مع فريق قضايا السلامة، لشبكة «CNN»، إن «الشركة استعانت مؤخرا بمصادر خارجية لمواجهة تقارير المحتوى المخالف، ما يشعرني بتقبلهم لفكرة تقليص فِرق الثقة والأمان».

وتحدث موظف سابق آخر في «تويتش»، شرط عدم الكشف عن هويته، لشبكة «CNN» بأن تقليص عمليات المراقبة للذكاء الاصطناعي قد يكون سيئاً على المدى الطويل.

وأضافا «أن المشكلات ستظهر الآن، خاصة بعد أن أصبح الذكاء الاصطناعي جزءاً من مجتمع الإنترنت، لذلك ستصبح قضايا السلامة والأمن والأخلاق أكثر انتشاراً».

أثارت «مايكروسوفت» الجدل أيضاً بعدما سرّحت فريق المتابعة الأخلاقية لمنتجات الذكاء الاصطناعي كجزء من عمليات التسريح الجماعي.

في بيان لشبكة «CNN»، قالت «مايكروسوفت» إن الفريق أدّى دوراً رئيسياً في تطوير سياسات الذكاء الاصطناعي المسؤولة وممارساتها، مضيفة أن جهوده مستمرة منذ عام 2017.

وأوضحت الشركة أنه حتى مع التسريحات، «فإن لدينا مئات الأشخاص للعمل على هذه المشكلات، بما في ذلك فرق الذكاء الاصطناعي المسؤولة الجديدة والمخصصة التي نمت بشكلٍ ملحوظ خلال هذا الوقت».

مستقبل ضبابي في «ميتا»

أكثر من أي شركة أخرى، نحت «ميتا» منحاً بارزاً بشأن تدابير السلامة بعد عام 2016، واستثمرت بكثافة في الإشراف على المحتوى والسياسة العامة ومجلس الرقابة، ومعالجة المخاوف المتزايدة بشأن نظامها الأساسي.

لكن إعلان مارك زوكربيرغ، الرئيس التنفيذي لشركة ميتا الأخير، بشأن الجولة الجديدة من تسريح الموظفين، يُثير التساؤلات بشأن مصير هذه الأعمال.

ومع الإعلان عن موجة التسريحات، قال زوكربيرغ «سوف نتأكد من استمرارنا في الوفاء بجميع التزاماتنا الحاسمة والقانونية بينما نجد طرقاً للعمل بكفاءة أكبر».

ومع ذلك، قالت كاتي بول «إذا كانت تدعي أنهم سوف يركّزون على التكنولوجيا، فسيكون رائعاً أن يصبحوا أكثر شفافية بشأن الفِرق التي سيتخلون عنها، وأظن أن هناك نقصاً في الشفافية، لأن الفِرق هي التي تتعامل مع السلامة والأمن».

وأضافت أن تركيز «ميتا» على التكنولوجيا لن يحل بالضرورة مشكلاتها المستمرة.

وجدت الأبحاث التي أجراها «ذا تيك ترانسبيرنسي بروجيكت» العام الماضي، أن تكنولوجيا «فيسبوك» سمحت بإنشاء عشرات الصفحات للجماعات الإرهابية.

وفقاً لتقرير المنظمة، فإنها أجرت تجربة عملية تضمن إدراج مستخدم جماعة إرهابية في ملفها الشخصي، ما سمح بإظهار محتوى متطرف، رغم مزاعم «فيسبوك» بحظر المحتوى من الجماعات التي تصنف كجماعات إرهابية.

قالت بول «إن التكنولوجيا التي مفترض أن تزيل هذا المحتوى هي من صنعته».

في الوقت الذي نُشر فيه التقرير، علّقت «ميتا» أن «هذه الأنواع من الصفحات تؤسس تلقائياً، وقد عالجنا المشكلة ونواصل مراجعتها».

هل هذا يستحق الاستثمار؟

قد يتصارع قادة التكنولوجيا مع حقيقة أنه حتى أثناء تعيينهم فرق الثقة والسلامة في السنوات الأخيرة، فإن مشكلاتهم لن تتبدد.

قالت المديرة السابقة للسياسة العامة في «فيسبوك»، والتي تدير الآن شركة الاستشارات التقنية «أنكور تشاينج»، كاتي هارباث «إنهم لا يحصلون على شيء سوى الانتقاد فقط، وأنا لا أقول إنه يجب مواساتهم».

وأضافت أنه بينما يتعين على شركات التكنولوجيا «تحقيق التوازن بين نموها والظروف الاقتصادية الحالية للتأكد من عدم القضاء على الابتكار، يجب معرفة الآثار المترتبة على قراراتها»

كتبت- كلير دافي (CNN)