أدى الذكاء الاصطناعي المبني على جبال من المعلومات المتحيزة المحتملة إلى خلق خطر حقيقي يتمثل في أتمتة التمييز، وسط تساؤلات حول إمكانية إعادة تعليم الآلات وتزويدها بالمعلومات الصحيحة غير المتحيزة.
ففي عصر تشات جي بي تي هذا وأمثاله من التطبيقات، سيعمل الذكاء الاصطناعي على اتخاذ المزيد والمزيد من القرارات لمقدمي الرعاية الصحية أو مقرضي البنوك أو المحامين، وذلك باستخدام كل ما لديه من مصادر معلومات توافرت له عبر الإنترنت.
وبالتالي فإن الذكاء الأساسي للذكاء الاصطناعي لا يختلف عن العالم الذي جاء منه، ومن المرجح أن يكون مليئاً بالذكاء والحكمة والمنفعة، وأيضاً بالكراهية والتحيز.
وقال جوشوا ويفر، مدير إحدى الشركات الاستشارية القانونية: «إنه أمر خطير لأن الناس يتبنون برامج الذكاء الاصطناعي ويعتمدون عليها حقاً».
وقال: «يمكننا الدخول في حلقة ردود الفعل هذه حيث يؤدي التحيز في أنفسنا وثقافتنا إلى التحيز في الذكاء الاصطناعي ويصبح حلقة من حلقات تعزيز هذا الأمر».
أمثلة على التحيز
الاستخدامات المتنوعة للذكاء الاصطناعي، مثل التعرف على الوجه، شهدت مواجهة الشركات مع السلطات بسبب التمييز.
كان هذا هو الحال ضد رايت-أيد، وهي سلسلة صيدليات أميركية، حيث قامت الكاميرات الموجودة في المتجر بوضع علامات زائفة على المستهلكين، وخاصة النساء والأشخاص الملونين، على أنهم لصوص متاجر، وفقاً للجنة التجارة الفيدرالية.
يشعر الخبراء بالقلق من أن الذكاء الاصطناعي التوليدي على غرار تشات جي بي تي، والذي يمكنه خلق ما يشبه التفكير على المستوى البشري في ثوانٍ معدودة، يفتح فرصاً جديدة لجعل الأمور أسوء.
يدرك عمالقة الذكاء الاصطناعي المشكلة جيداً، ويخشون أن تنحدر نماذجهم إلى سلوك سيئ، أو تعكس بشكل مفرط المجتمع الغربي عندما تكون قاعدة مستخدميهم عالمية.
ولتوضيح المشكلة بشكل أوضح يقول ساندر بيتشاي، الرئيس التنفيذي لشركة غوغل إن الشركة تحصل على استفسارات من إندونيسيا أو الولايات المتحدة للحصول على صور أطباء أو محامين من تطبيقها المدعم بالذكاء الاصطناعي جيميني والذي من المفترض أن يراعي التنوع العرقي.
لكن هذه الاعتبارات من الممكن أن تصل إلى مستويات سخيفة وتؤدي إلى اتهامات غاضبة بالإفراط.
وهو ما حدث عندما قام تطبيق غوغل بإخراج صورة لجنود ألمان من الحرب العالمية الثانية، والتي تضمنت بشكل سخيف رجلاً أسود وامرأة آسيوية بحجة عدم التمييز.
وتعليقاً على تلك الواقعة قال بيتشاي إنه «من الواضح أن الخطأ كان أننا بالغنا في تطبيقه.. حيث لم يكن من المفترض أن يحدث أبداً».
مسار خاطئ
لكن ساشا لوتشيوني، عالمة الأبحاث في هاغينغ فيس، وهي منصة رائدة لنماذج الذكاء الاصطناعي، حذرت من أن «التفكير في وجود حل تكنولوجي للتحيز هو نوع من السير في المسار الخاطئ بالفعل».
وقالت إن الذكاء الاصطناعي التوليدي يدور بشكل أساسي حول ما إذا كان الإخراج «يتوافق مع ما يتوقعه المستخدم منه» وهذا أمر ذاتي إلى حد كبير.
وحذر جايدن زيغلر، رئيس قسم المنتجات في شركة أليمبيك تكنولجيز، من أن النماذج الضخمة التي بُني عليها تشات جي بي تي «لا يمكنها التفكير فيما هو متحيز أو غير متحيز، لذا لا يمكنهم فعل أي شيء حيال ذلك».
في الوقت الحالي على الأقل، يعود الأمر للبشر للتأكد من أن الذكاء الاصطناعي يولد كل ما هو مناسب أو يلبي توقعاتهم.
ولكن بالنظر إلى الهوس بالذكاء الاصطناعي، فإن هذه ليست مهمة سهلة.
لدى هاغينغ فيس نحو 600 ألف نموذج للذكاء الاصطناعي أو التعلم الآلي متاحة على منصتها.
قال لوتشيوني: «كل أسبوعين، يظهر نموذج جديد ونحن نتدافع من أجل محاولة تقييم وتوثيق التحيزات أو السلوكيات غير المرغوب فيها».
إحدى الطرق قيد التطوير هي ما يسمى التفكيك الخوارزمي الذي يسمح للمهندسين بحذف المحتوى، دون تدمير النموذج بأكمله.
ولكن هناك شكوك جدية في إمكانية نجاح هذا الأمر بالفعل.
وقال رام سريهارشا، كبير مسؤولي التكنولوجيا في بنكون، إن هناك طريقة أخرى من شأنها «تشجيع» النموذج على السير في الاتجاه الصحيح، و«تحسينه»، و«المكافأة على الصواب والخطأ».
وبنكون تعد متخصصة في تقنية تساعد نموذج الذكاء الاصطناعي على جلب المعلومات من مصدر ثابت موثوق.
بالنسبة إلى جوشوا ويفر، مدير إحدى الشركات الاستشارية القانونية، فإن هذه المحاولات «النبيلة» لإصلاح التحيز هي «توقعات لآمالنا وأحلامنا لما يمكن أن تبدو عليه النسخة الأفضل للمستقبل».
وأضاف أن التحيز «متأصل لدى الإنسان، ولهذا السبب، فهو أيضاً متأصل في الذكاء الاصطناعي».
(أ ف ب )