في الثاني من أبريل 2026، أعلنت جوجل DeepMind عن أكبر قفزة في تاريخ نماذجها المفتوحة المصدر. أطلقت جوجل جيما 4، أذكى عائلة نماذج مفتوحة أنتجتها حتى الآن، مصممة خصيصاً للاستدلال المتقدم وسير العمل الاستقلالي الوكيل، وتُقدم مستوى غير مسبوق من الذكاء بالنسبة لحجم معاملاتها.
والأهم من ذلك أن كل هذا متاح مجاناً تحت رخصة Apache 2.0، مما يعني أن أي مطور أو شركة في العالم يمكنه استخدامه تجارياً دون قيود.
لا تأتي جيما 4 بحجم واحد يناسب الجميع، بل تتوفر في أربعة أحجام متدرجة: E2B وE4B للأجهزة الطرفية والهواتف، و26B A4B MoE و31B Dense للخوادم وأجهزة العمل المكثف، هذا التدرج الذكي يعني أن المطور يمكنه نشر نموذج على هاتف محمول بنفس بنية النموذج الأكبر الذي يعمل على خادم سحابي، مما يفتح آفاقاً جديدة لتطوير التطبيقات.
يتميز النموذجان الصغيران E2B وE4B بدعم نافذة سياق تصل إلى 128 ألف رمز، فيما يدعم النموذجان الأكبر 26B و31B نافذة سياق استثنائية تصل إلى 256 ألف رمز، مما يُمكّنهما من تحليل مستندات ضخمة وإجراء محادثات متسلسلة طويلة بدقة عالية.
تدعم جميع نماذج جيما 4 مدخلات النص والصورة مع قدرة على فهم الفيديو عبر تحليل تسلسلات الإطارات، فيما تدعم النموذجان الصغيران E2B وE4B المدخلات الصوتية أيضاً، وهذا يجعل جيما 4 من النادر في عالم النماذج المفتوحة، نموذج يجمع النص والصورة والصوت في بنية واحدة متكاملة دون الحاجة لنماذج منفصلة.
على صعيد فهم الصور، تبرز قدرات جيما 4 في الكشف عن الأشياء، وتحليل المستندات وملفات PDF، وفهم الشاشات وواجهات المستخدم، وقراءة المخططات، والتعرف البصري على الحروف OCR بما يشمل اللغات المتعددة والخط اليدوي، مما يجعله أداة عملية فعلية لتطبيقات المؤسسات والأعمال.
الذكاء الاصطناعي الوكيل بدون إنترنت
الميزة الأبرز في جيما 4 أنه صُمم للعمل بشكل مستقل ومنفصل عن الشبكة، يُتيح جيما 4 التخطيط متعدد الخطوات، والعمل المستقل، وتوليد الكود دون اتصال بالإنترنت، بل والمعالجة الصوتية والمرئية، وكل ذلك دون الحاجة إلى ضبط دقيق متخصص، بمعنى أن المطور يمكنه بناء وكيل ذكاء اصطناعي كامل يعمل على الجهاز دون إرسال أي بيانات إلى السحابة.
يمكن تشغيل النموذج E2B بأقل من 1.5 جيجابايت من الذاكرة على بعض الأجهزة باستخدام أوزان 2 بت و4 بت مع embeddings طبقية مخزنة في الذاكرة، وهو رقم مذهل يجعل تشغيل الذكاء الاصطناعي المحلي في متناول أجهزة الميزانية المحدودة.
منذ إطلاق الجيل الأول من جيما، قام المطورون بتنزيل النماذج أكثر من 400 مليون مرة، وبنوا أكثر من 100 ألف نسخة مشتقة، مما يجعل جيما 4 وريثاً لمجتمع تطوير ضخم جاهز للتبني الفوري.
يدعم جيما 4 بشكل أصلي أكثر من 140 لغة، مما يُتيح تجارب محلية ومتعددة اللغات لجمهور عالمي، وهو ما يجعله مناسباً بشكل خاص لمنطقة الشرق الأوسط وأفريقيا وجنوب آسيا التي تشهد نمواً متسارعاً في تطوير تطبيقات الذكاء الاصطناعي.
من ناحية التوافق، يدعم جيما 4 منذ اليوم الأول أدوات Hugging Face وvLLM وllama.cpp وMLX وOllama وNVIDIA NIM وLM Studio وغيرها، مما يعني أن المطورين يمكنهم البدء بأدواتهم المفضلة فوراً دون الحاجة لتعلم بنية تحتية جديدة.
مع نوافذ سياق تصل إلى 256 ألف رمز، ومعالجة الصور والصوت بشكل أصلي، وإتقان أكثر من 140 لغة، يتفوق جيما 4 في المنطق المعقد وتوليد الكود وسير العمل الاستقلالي، ويمكن نشره على Google Cloud عبر Vertex AI، وعلى Cloud Run، وكذلك على الأجهزة المحلية، مما يمنح الشركات المرونة الكاملة في اختيار بيئة النشر المناسبة.
جيما 4 يمثل نقطة تحول حقيقية في مشهد الذكاء الاصطناعي المفتوح، نموذج يجمع بين القدرة العالية والوصول المجاني والتشغيل المحلي في حزمة واحدة، مما يُضيق الفجوة بين النماذج المملوكة والمفتوحة بشكل لم يسبق له مثيل.


















0 تعليق