في خضم التحولات والتطورات التي يشهدها عالمنا اليوم، قد يغفل الكثيرون عن أسبوعٍ حافلٍ وغير مسبوق شهده الذكاء الاصطناعي.

إذ أعلن الأمين العام للأمم المتحدة عن تشكيل أول مجلس استشاري للذكاء الاصطناعي، واحتضنت بريطانيا أول قمة على مستوى القادة والوزراء مخصصة لبحث مخاطر الذكاء الاصطناعي، وقام الرئيس الأميركي بالتوقيع على أول أمرٍ تنفيذي يتعلق بالذكاء الاصطناعي الآمن والموثوق، وبذلك يكون العالم قد دخل بلا شكّ حقبةً جديدةً يتربع فيها الذكاء الاصطناعي على قمة أولوياته وأجندات قادته، في موازاة أجندات أخرى اختصت بهذا القدر من الاهتمام حتى زمنٍ قريب كالتغير المناخي.

وقد يتساءل البعض عن مبررات هذا الاهتمام غير المسبوق بالذكاء الاصطناعي وتحديداً بالمخاطر المترتبة عليه، برغم تعاطينا مع هذه التقنية لسنوات، يكمن جزء من الإجابة على الأقل في النماذج الأساسية للذكاء الاصطناعي (Foundation Models) والتي بُنيت عليها الموجة الجامحة للذكاء الاصطناعي التوليدي (Generative AI) خلال العام المنصرم، إذ إن تلك النماذج -والتي تم تدريبها باستخدام كم هائلٍ من البيانات- تتحلّى بالمرونة والعمومية بما يمكّن من تطويعها بسهولة للعديد من الاستخدامات، كما أن الذكاء الاصطناعي التوليدي قد فتح آفاقاً شاسعة لاستخدام الذكاء الاصطناعي من خلال تبسيط أدوات التفاعل معه ونقله من أداة حصرية لعلماء البيانات ومختصي المجال إلى شريكٍ تفاعلي في متناول مئات الملايين من المستخدمين حول العالم، هنا تحديداً نبدأ بتلمّس حجم التعقيد والمخاطر الممكن وقوعها، إذ سيكون من الصعب مع الوقت تقنين تطبيقات الذكاء الاصطناعي في حدود الاستخدام الآمن أو ضمان عدم وقوع التقنية في أيدٍ غير مختصة، سواءً بقصدٍ أو بغير قصدٍ.

ما المخاطر المتوقعة للذكاء الاصطناعي ؟

لو أخذنا التزييف العميق (Deepfakes) كمثال إيضاحي، فهناك العديد من الاستخدامات النافعة -أو على الأقل غير الضارة- له، كإعادة تصوير الشخصيات التاريخية في الأعمال الفنية أو محاكاة الترجمة الفورية أو حماية الخصوصية، إلّا أن التقنية ذاتها يمكن تسخيرها لبناء ونشر حملات إعلامية مضللة (Disinformation) على نطاق واسع، من خلال صورٍ أو مقاطع فيديو خدمةً لأغراض التلاعب أو التزييف أو حتى بغرض المتعة، ومن الأمثلة على ذلك استخدام تقنية التزييف العميق في تقمص صور أو أصوات شخصيات مشهورة أو مؤثرة، ومشاركتها عبر منصات التواصل الاجتماعي. وتسلّط مثل هذه الأمثلة الضوء على طبيعة الاستخدام المزدوج للذكاء الاصطناعي، حيث يمكن أن يؤدي استخدامه غير المسؤول إلى معلومات مضللة.

وكذلك الحال بالنسبة للتطبيقات المخبرية للذكاء الاصطناعي، إذ أثبت نجاعته في تسريع اكتشاف لقاحات كوفيد-19. إلّا أن إساءة استخدامه مخبرياً يمكن أن يؤدي إلى تطوير مركباتٍ بيولوجية غير محمودة العواقب، هذه المخاطر وغيرها هي ما دفع عمالقة التقنية مثل مايكروسوفت وغوغل وأوبن إيه أي إلى إطلاق مفهوم الذكاء الاصطناعي الحدودي (Frontier AI) مؤخراً -وهو الجيل القادم الأكثر تقدماً من النماذج الأساسية- وتأكيد ضرورة تدخل الحكومات بشكل مباشر في تنظيم وتشريع استخدام تلك النماذج وعدم الاكتفاء بمبادئ طوعية لتبني أخلاقيات الذكاء الاصطناعي.

دور التشريعات عالمياً

ورغم حداثة عهدنا بالتشريعات المقيّدة لاستخدامات الذكاء الاصطناعي -مثل قانون الذكاء الاصطناعي (AI Act) الذي تبناه الاتحاد الأوروبي مؤخراً- فإن هناك تسارعاً محموماً خلال الفترة الماضية في دراسة واعتماد تشريعات مماثلة حول العالم، وتتمحور غالبيتها حول تصنيف تقنيات ونماذج الذكاء الاصطناعي أو استخداماتها وتحديد قيودٍ للتعاطي مع التقنيات أو التطبيقات عالية الخطورة، كتقييم قدرات النماذج المطورة دورياً، أو إخضاعها لقدرٍ كافٍ من الاختبارات قبل إطلاقها للعامة، أو محاكاة أداة النماذج ومخرجاتها قبل استكمال تطويرها فعلياً، أو التقيّد بتحسيناتٍ مرحليةٍ على النماذج وتجنّب الفجوات الواسعة في القدرات بين الإصدارات المختلفة لنماذج الذكاء الاصطناعي للحد من النتائج غير المتوقعة.

وفي الوقت ذاته، يزخر المشهد بالعديد من الأدوات التقنية لتمكين الاستخدام المسؤول للذكاء الاصطناعي (Responsible AI)، كأدوات قياس تحيز الذكاء الاصطناعي (AI Bias) وأدوات الكشف عن التزييف العميق، بالإضافة إلى تقنيات تمييز النصوص المنتجة من قبل الذكاء الاصطناعي التوليدي من خلال تحليل أنماط الكتابة أو من خلال دمج علامات مائية نصية (Text Watermarks)، كما أنه من المهم للغاية العمل على تعزيز الوعي المجتمعي حول أخلاقيات الذكاء الاصطناعي وسُبُل اكتشاف الاستخدامات غير المسؤولة له.

ختاماً، رغم أن المخاوف المنتشرة بشأن مخاطر الذكاء الاصطناعي حقيقية وجديرة بالمتابعة، فإنه ينبغي موازنة هذه المخاوف عبر تأمل الميزات العديدة والإمكانات الهائلة التي يتمتع بها الذكاء الاصطناعي، فعندما يتم تسخير إمكانات الذكاء الاصطناعي وتوظيفها على النحو الصحيح، من المتوقع أن يؤدي ذلك إلى إحداث تحولات إيجابية تسهم في تعزيز الاقتصادات، وتحسين جودة حياة الناس والمجتمعات، إلى جانب معالجة العديد من التحديات الملحّة، بما في ذلك تحسين كفاءة خدمات الرعاية الصحية والتعليم وتخفيف حدة الفقر وإدارة ندرة الموارد ومكافحة التغير المناخي وتحقيق الأهداف العالمية للحياد المناخي، إضافة إلى ذلك، يُعد الذكاء الاصطناعي أداة مهمة للغاية ولا تقدّر بثمن في الجهود العالمية للتصدي للتغير المناخي ومكافحة آثاره على المدى البعيد، ويؤكد تقرير نشرته بوسطن كونسلتينغ جروب بعنوان (التطلع إلى الريادة في عصر الذكاء الاصطناعي) على هذه النقاط، ويقدم إطاراً شاملاً للدول لتطوير وتنفيذ استراتيجيات وطنية ناجحة لاستخدامات الذكاء الاصطناعي، ويهدف هذا الإطار إلى إطلاق إمكانات الذكاء الاصطناعي بما يعود بالنفع على شعوب العالم والإنسانية جمعاء.

* د. أكرم عوض، شريك في بوسطن كونسلتينغ جروب.

** الآراء الواردة في المقال لا تعبر بالضرورة عن وجهة نظر «CNN الاقتصادية».