- تصدر نموذج فالكون مامبا (7 بي) القائمة الصادرة عن منصة Hugging Face الرائدة عالمياً، إذ يعد أفضل النماذج أداءً على مستوى العالم من نوعه كنموذج لغوي مفتوح المصدر من نوع SSLM.
- لا تشكل النماذج من نوع SSLM عبئاً على الذاكرة ولا تتطلب ذاكرة إضافية لإنشاء النصوص الطويلة
- يتفوق نموذج فالكون مامبا (7 بي) على نماذج هيكليات المحولات التقليدية مثل Llama 3.1 8B و Mistral 7B
- يعكس النموذج الجديد جهود الابتكار والنهج الريادي الذي تتخذه إمارة أبوظبي في البحث والتطوير في مجال الذكاء الاصطناعي
أبوظبي – الإمارات العربية المتحدة
أعلن معهد الابتكار التكنولوجي، المركز العالمي الرائد للبحث العلمي وأحد أعمدة الأبحاث التطبيقية التابع لمجلس أبحاث التكنولوجيا المتطورة في أبوظبي، عن إطلاق نموذج لغوي كبير جديد في سلسلة نماذج فالكون، وهو فالكون مامبا (7 بي). وفقاً للقائمة الصادرة عن منصة Hugging Face الرائدة عالمياً، يعد هذا النموذج أفضل النماذج أداءً على مستوى العالم من نوعه كنموذج لغوي مفتوح المصدر من نوع SSLM.
وبصفته أول نموذج في سلسلة فالكون من نوع SSLM، يتميز هذا النموذج عن نماذج فالكون السابقة المبنية جميعها على المحولات. كما يعد نموذج فالكون مامبا (7 بي) الجديد مثالاً آخر على الأبحاث الرائدة التي يقوم بها المعهد، إضافة إلى الأدوات والمنتجات المتقدمة التي يوفرها للمجتمع بشكل مفتوح المصدر.
وفي معرض حديثة عن هذا الإنجاز، قال سعادة فيصل البناي، الأمين العام لمجلس أبحاث التكنولوجيا المتطورة، ومستشار شؤون الأبحاث الاستراتيجية والتكنولوجيا المتقدمة لرئيس دولة الإمارات العربية المتحدة: “يمثل نموذج فالكون مامبا (7 بي) نموذج الذكاء الاصطناعي الرابع الذي يطلقه معهد الابتكار التكنولوجي على التوالي، مما يعزز من مكانة أبوظبي كمركز عالمي للبحث والتطوير في مجال الذكاء الاصطناعي، ويسلط هذا الإنجاز الضوء على الالتزام الثابت لدولة الإمارات العربية المتحدة بالابتكار”.
وأضاف: مقارنة مع النماذج المبنية على المحولات، فإن فالكون مامبا (7 بي) يتفوق على نموذج Llama 3.1 8B ونموذج Llama 3.1 8B من شركة ميتا ونموذج Mistral 7B، وذلك تبعاً للمعايير التي تم طرحها مؤخراً من منصة HuggingFace. وأما بالمقارنة مع النماذج الأخرى من نوع SSLM، فيتفوق فالكون مامبا (7 بي) على جميع نماذج المصادر المفتوحة الأخرى بحسب المعايير القديمة، وسيكون هذا النموذج على رأس قائمة المقارنة المعيارية الجديدة الخاصة بمنصة HuggingFace.
وبدورها، قالت د. نجوى الأعرج، الرئيس التنفيذي لمعهد الابتكار التكنولوجي: “يواصل معهد الابتكار التكنولوجي دفع حدود التكنولوجيا إلى آفاق جديدة من خلال سلسلة فالكون من نماذج الذكاء الاصطناعي، إذ يمثل فالكون مامبا (7 بي) إنجازاً رائداً ويمهد الطريق لابتكارات الذكاء الاصطناعي المستقبلية، والتي من شأنها تعزيز القدرات البشرية والارتقاء بمستوى الحياة.”
تتميز نماذج SSLM بأدائها العالي في فهم السياقات المعقدة التي تتطور مع مرور الوقت، أي النصوص الطويلة كالكتب على سبيل المثال، وذلك لأن أنظمة تخزين البيانات SSLM لا تتطلب ذاكرة إضافية لاستيعاب هذا الكم الكبير من المعلومات.
ومن ناحية أخرى، تتسم النماذج القائمة على المحولات بفعاليتها الكبيرة في تذكر واستخدام المعلومات التي تمت معالجتها في وقت سابق، مما يمكنها من القيام بمهام مثل توليد المحتوى. وعلى الرغم من ذلك، فإنها تتطلب قدرة حسابية كبيرة لأنها تقارن كل كلمة مع الكلمات الأخرى.
وتقدم النماذج اللغوية من نوع SSLM حلولاً وتطبيقات عملية في العديد من المجالات المختلفة مثل التقدير والتنبؤ ومهام التحكم. وعلى غرار النماذج المبنية على المحولات، فإنها تتفوق أيضاً في مهام معالجة اللغات الطبيعية ويمكن تطبيقها على الترجمة الآلية وتلخيص النصوص ومعالجة الصوت والصورة.
ومن جهته قال د. حكيم حسيد، رئيس قسم الأبحاث بالإنابة في وحدة الذكاء الاصطناعي التابعة لمعهد الابتكار التكنولوجي: “أشعر بالفخر لتقديمنا لنموذج فالكون مامبا (7 بي) وما أحرزه النهج التعاوني المتبع في معهد الابتكار التكنولوجي، والذي ساهم في تعزيز قدرتنا على تطوير النموذج. كما يمثل هذا الإنجاز خطوة كبيرة إلى الأمام ويساهم في توسيع المدارك ويعزز جهود البحث في مجال الأنظمة الذكية. نسعى في معهد الابتكار التكنولوجي لدفع حدود نماذج SSLM والنماذج القائمة على المحولات إلى أبعد ما هو ممكن لتحفيز المزيد من الابتكار في الذكاء الاصطناعي التوليدي.”
كما تم تحميل نماذج فالكون الكبيرة أكثر من 45 مليون مرة، مما يثبت نجاحها المتميز في المجال. وتجدر الإشارة إلى أن نموذج فالكون مامبا (7 بي) تم إطلاقه بموجب رخصة معهد الابتكار التكنولوجي فالكون 2.0، وهي مبنية على رخصة البرمجيات أباتشي 2.0، والتي تتضمن سياسة استخدام مقبولة تشجع على الاستخدام المسؤول للذكاء الاصطناعي. لمزيد من المعلومات حول النموذج يرجى الانتقال إلى FalconLLM.Tii.ae.