Meta تطلق نماذج Llama مضغوطة لتسريع الأداء وتقليل الذاكرة
نماذج AI خفيفة تحسن الأداء وتعمل بكفاءة على الهواتف
إصدار خفيف
في خطوة تهدف إلى تعزيز أداء الذكاء الاصطناعي على الأجهزة المحمولة، أعلنت Meta عن إطلاق إصدارات مضغوطة من نماذج Llama 3.2، تتميز بتحقيق توازن بين الأداء والدقة، مما يجعلها مناسبة للعمل على الهواتف الذكية والأجهزة الطرفية، مع تقليل الاعتماد على موارد الحوسبة الكبيرة.
ما الجديد في النماذج المضغوطة؟
وفقًا لتدوينة شركة ميتا ستوفر هذه الإصدارات المُحسَّنة:
• زيادة سرعة الأداء بمقدار 2-4 مرات مقارنة بالإصدارات الأصلية.
• تقليل حجم النموذج بنسبة 56%، مما يسهّل تخزينها وتشغيلها.
• خفض استهلاك الذاكرة بنسبة 41%، مما يتيح للنماذج العمل بكفاءة على الأجهزة محدودة الموارد.
ويأتي هذا التحديث في سياق رؤية Meta لتوسيع نطاق استخدام الذكاء الاصطناعي، عبر تمكين المطورين من بناء تطبيقات ذكاء اصطناعي تعمل محليًا على الأجهزة المحمولة، مما يعزز الخصوصية ويقلل من الحاجة إلى الاتصال المستمر بالسحابة.
تقنيات التكميم المعتمدة
اعتمدت Meta في هذه النماذج على تقنيتين رئيسيتين لضغط النماذج:
1. التدريب الواعي بالتكميم (QAT) باستخدام LoRA:
• يتم تدريب النماذج على دقة منخفضة من البداية لضمان الحفاظ على الأداء.
• هذه التقنية تتيح تعديل النماذج لتعمل بكفاءة على أجهزة ذات معالجات محدودة.
2. SpinQuant:
• تقنية لضغط النماذج بعد التدريب، تتميز بمرونتها وإمكانية استخدامها على منصات مختلفة.
• تتيح هذه الطريقة ضغط النماذج دون الحاجة إلى بيانات تدريب أصلية، مما يجعلها مثالية للاستخدام في التطبيقات التي تفتقر إلى بيانات كبيرة أو موارد قوية.
أداء مميز على الأجهزة المحمولة
تم اختبار هذه النماذج بنجاح على عدة أجهزة مثل OnePlus 12 وSamsung S24+، حيث أظهرت النتائج تحسينًا كبيرًا في الأداء. كما تعمل Meta مع شركائها التقنيين، مثل Qualcomm وMediaTek، لتوفير المزيد من التكامل مع وحدات معالجة الشبكة العصبية (NPU)، مما سيتيح أداءً أعلى على الهواتف الذكية التي تدعم هذه التقنية.
الخصوصية وتوفير الطاقة في الصدارة
من أهم ميزات هذه النماذج أنها تعمل محليًا على الأجهزة، مما يعزز الخصوصية لأن البيانات لا تخرج من الجهاز. كما أن تشغيل النماذج بكفاءة أكبر يقلل استهلاك الطاقة، وهو أمر ضروري لتحسين عمر البطارية على الأجهزة المحمولة.
نحو مستقبل مفتوح للذكاء الاصطناعي
تأتي هذه الخطوة كجزء من استراتيجية Meta لدعم الابتكار المفتوح، حيث يمكن للمطورين الآن تحميل هذه النماذج واستخدامها من خلال منصات مثل Hugging Face وllama.com. وتؤكد Meta أن الذكاء الاصطناعي المفتوح هو الطريق إلى الأمام، مع التزامها بتوفير حلول أكثر كفاءة وأقل تكلفة.
الابتكار بأقل تكلفة
يمثل تقديم نماذج Llama 3.2 المضغوطة نقلة نوعية في عالم الذكاء الاصطناعي، حيث يصبح من الممكن تشغيل تطبيقات متقدمة على الأجهزة المحمولة دون التضحية بالأداء أو الخصوصية.
السؤال المطروح الآن: هل سنشهد تسارعًا في انتشار الذكاء الاصطناعي المفتوح بفضل هذه الخطوات؟ وكيف سيتفاعل السوق مع هذا التحول، خصوصًا في ظل المنافسة الشديدة مع نماذج مغلقة مثل GPT أو claude؟ الأيام القادمة كفيلة بالإجابة.