مع إعلان المركز العالمي للبحث العلمي إطلاق فالكون مامبا (7 بي) نموذجاً لغوياً في سلسلة نماذج فالكون، تقول نجوى الأعرج، الرئيسة التنفيذية لمعهد الابتكار التكنولوجي في حديث مع CNN الاقتصادية إن النموذج يمثّل ابتكاراً تحويلياً يساعد على تسريع مكانة الإمارات مركزاً عالمياً للاختراقات التكنولوجية الرائدة والعلوم المتطورة وأفضل المواهب البحثية.
وتضيف الأعرج أن النموذج لا يعزز الربحية فحسب، بل يسهم في تحسين تطوير الأدوية والكشف المبكر عن الأمراض إلى التنبؤات المناخية الأفضل ويتمتّع بالقدرة على إنقاذ الأرواح.
يتفوق على نموذج Llama 3.1 8B ونموذج Llama 3.1 8B من شركة ميتا ونموذج Mistral 7B، وذلك تبعاً للمعايير التي تم طرحها مؤخراً من منصة HuggingFace.
ومقارنة بالنماذج الأخرى من نوع SSLM، فيتفوق فالكون مامبا (7 بي) على جميع نماذج المصادر المفتوحة الأخرى بحسب المعايير القديمة، وسيكون هذا النموذج على رأس قائمة المقارنة المعيارية الجديدة الخاصة بمنصة HuggingFace.
برنامج يعزز مكانة الإمارات على خارطة إنتاج الذكاء الاصطناعي
يتمتّع البرنامج على القدرة على تحقيق مكاسب كبيرة في الكفاءة من خلال تحسين الموارد وتحليل البيانات والتعرف إلى الأنماط واستخراج المعرفة والتفكير، وتؤكد الأعرج أن «فالكون مامبا 7 بي» الجديد مهمة مجلس أبحاث التكنولوجيا المتطورة في حماية اقتصاد الإمارات في المستقبل، وتتابع قائلة إن البحث والتطوير الصادرين عن معهد الابتكار التكنولوجي يعد أداة أساسية تسهم في هذه الرحلة، ويعزز البنية الجديدة المبتكرة لـFalcon Mamba 7B، مثنية على مكانة دولة الإمارات العربية المتحدة في قيادة التقدم في مجال الذكاء الاصطناعي، وتصبح رائدة عالمياً في مجال الذكاء الاصطناعي.
ويقول فيصل البناي، الأمين العام لمجلس أبحاث التكنولوجيا المتطورة، ومستشار شؤون الأبحاث الاستراتيجية والتكنولوجيا المتقدمة لرئيس دولة الإمارات العربية المتحدة: «يمثل نموذج فالكون مامبا (7 بي) نموذج الذكاء الاصطناعي الرابع الذي يطلقه معهد الابتكار التكنولوجي على التوالي، ما يعزز من مكانة أبوظبي مركزاً عالمياً للبحث والتطوير في مجال الذكاء الاصطناعي، ويُسلّط هذا الإنجاز الضوء على الالتزام الثابت لدولة الإمارات العربية المتحدة بالابتكار».
هل يتفوق فالكون مامبا 7B على طرازات لاما 3.1 8B من ميتا وميسترال 7B؟
تتميز نماذج SSLM بأدائها العالي في فهم السياقات المعقدة التي تتطور مع مرور الوقت، أي النصوص الطويلة كالكتب على سبيل المثال، وذلك لأن أنظمة تخزين البيانات SSLM لا تتطلب ذاكرة إضافية لاستيعاب هذا الكم الكبير من المعلومات. ومن ناحية أخرى، تتسم النماذج القائمة على المحولات بفاعليتها الكبيرة في تذكر واستخدام المعلومات التي تمت معالجتها في وقت سابق، ما يمكّنها من القيام بمهام مثل توليد المحتوى. وعلى الرغم من ذلك، فإنها تتطلب قدرة حسابية كبيرة لأنها تقارن كل كلمة مع الكلمات الأخرى.
وفي حديث عن كيفية تفوق البرنامج الجديد على طرازات لاما من ميتا، تضيف الأعرج أن يمكن أن يتناسب Falcon Mamba 7B مع تسلسلات أكبر من بعض أفضل النماذج القائمة على المحولات مثل نماذج Meta’s Llama 3.1 8B و Mistral’s 7B. كما يمكنه معالجة تسلسلات أطول من البيانات في أثناء التعامل نظرياً مع كمية لا عن طريق تقسيم البيانات إلى أجزاء أصغر تتناسب مع ذاكرة وحدات معالجة الرسومات، ومعالجتها واحدة تلو الأخرى أو في مجموعات وهي الطريقة التي تعرف بالمعالجة المتوازية المتسلسلة.
وتقدّم النماذج اللغوية من نوع SSLM حلولاً وتطبيقات عملية في العديد من المجالات المختلفة مثل التقدير والتنبؤ ومهام التحكم.
وعلى غرار النماذج المبنية على المحولات، فإنها تتفوق أيضاً في مهام معالجة اللغات الطبيعية ويمكن تطبيقها على الترجمة الآلية وتلخيص النصوص ومعالجة الصوت والصورة.
الوصول الأسهل إلى التكنولوجيا
وتعقب الأعرج أن البرنامج لديه القدرة على معالجة التسلسلات الطويلة بكفاءة مع انخفاض الذاكرة والتكاليف الحسابية أداء أفضل في المهام التي تتطلب سياقاً مكثفاً وسلاسل زمنية وتدريباً على التسلسل الطويل مثل علم الجينوم وتسلسل لغة ping وبالتالي الاستفادة من تطبيقات الذكاء الاصطناعي في أنحاء الصناعة كافة، كما يوفر القدرة الحاسوبية والوصول إلى التكنولوجيا أكثر سهولة، وهو أحد المبادئ الأساسية لمعهد دراسات الترجمة التكنولوجيا يجب أن تكون متاحة للجميع. ومن خلال الحفاظ على التطوير مفتوحاً ويمكن الوصول إليه، يمكننا دفع التطورات مثل Falcon Mamba 7B إلى الأمام. فقط من خلال مشاركة هذه المعرفة مع المجتمع يمكننا دفع عجلة التنمية وتحقيق قدر أكبر من الابتكار والتقدم.