مولموE-1B هو نموذج لغة كبير متعدد الوسائط وقوي يعتمد على مزيج من الخبراء (Mixture-of-Experts) وقد حظي بالاهتمام لأدائه القريب من مستوى GPT-4V. كنموذج مفتوح الوزن، يتميز مولموE-1B بإتاحة الوصول إلى أوزانه وبيانات التدريب المتنوعة التي تدعم قدراته، على عكس العديد من النماذج الملكية. مع 1.5 مليار معلمة نشطة و7.2 مليار معلمة إجمالية، يعد مولموE-1B فعالًا للغاية، مما يضع معيارًا جديدًا للنماذج متعددة الوسائط المفتوحة.
أحد الابتكارات الرئيسية وراء مولموE-1B هو قدرته على الأداء الجيد عبر معايير أكاديمية متعددة، محققًا نتائج متقدمة. يُعزى هذا النجاح إلى اعتماده على مجموعات بيانات عالية الجودة ومشروحة بواسطة البشر لمهام وصف الصور والتدريب المتنوع. من خلال تجنب البيانات الاصطناعية، يعزز مولموE-1B التقدم الحقيقي في مجال النماذج متعددة الوسائط المفتوحة، مما يمكّن المجتمع من البناء على المعرفة الأساسية.
ما يميز مولموE-1B عن النماذج الأخرى، مثل مولمو-72B الأكبر، هو نهجه المتوازن في عدد المعلمات والكفاءة. بينما تحقق النماذج الأكبر نتائج من الدرجة الأولى في التقييم الأكاديمي والبشري، يحقق مولموE-1B توازنًا بين الأداء وإمكانية الوصول، مما يجعله مرشحًا رئيسيًا لأولئك الذين يبحثون عن قدرات متعددة الوسائط قوية دون العبء الحسابي الهائل للنماذج الأكبر. هذا يجعل مولموE-1B خيارًا مثاليًا للمستخدمين والمطورين الذين يسعون إلى نموذج متعدد الوسائط مفتوح الوزن يتميز بالكفاءة والأداء العالي.