في ظل التسارع الكبير لاعتماد تقنيات الذكاء الاصطناعي داخل المؤسسات، باتت المخاطر المصاحبة لهذا التحول موضوعًا لا يمكن تجاهله، خاصة في منطقة الشرق الأوسط التي تشهد توسعًا متزايدًا في استخدام الذكاء الاصطناعي التوليدي والوكيل.
وفي هذا السياق، استعرضت شركة F5، عبر محمد أبوخاطر نائب الرئيس الإقليمي للمبيعات في منطقة الشرق الأوسط وتركيا وأفريقيا، مجموعة من الممارسات العملية التي تهدف إلى مساعدة المؤسسات على تقليل المخاطر المرتبطة بنشر هذه التقنيات داخل بيئات العمل.
وتشير بيانات حديثة مستندة إلى دراسات بحثية متخصصة إلى أن اعتماد الشركات على الذكاء الاصطناعي التوليدي يتسارع بوتيرة لافتة، رغم وجود فجوات تنظيمية وحوكمية تستدعي التوقف وإعادة التقييم. فالتقنية باتت حاضرة بقوة في خطط التحول الرقمي، لكن مستوى الجاهزية لا يسير دائمًا بالسرعة نفسها.
وفقًا لدراسة وكلاء الذكاء الاصطناعي الصادرة عن شركة برايس ووترهاوس كوبرز في مايو 2025، فإن 79% من الشركات تبنت بالفعل حلول الذكاء الاصطناعي، بينما ترى 2% فقط منها عدم وجود توجه لاعتماد الذكاء الاصطناعي الوكيل.
ورغم الجدل الدائر حول مدى نضج هذه النماذج وقدرتها الفعلية على العمل كوكلاء مستقلين، فإن المؤشر الأهم يتمثل في الارتفاع الكبير لمعدلات الاستخدام، إلى جانب اتجاه شبه عام لزيادة الاستثمارات في هذا المجال خلال العام المقبل.
في المقابل، تكشف أبحاث F5 الخاصة، والتي تعتمد على مؤشر جاهزية الذكاء الاصطناعي، فجوة مقلقة بين الطموح والقدرة التنفيذية. فالمؤشر يقيس مدى جاهزية المؤسسات لتوسيع نطاق الأنظمة المدعومة بالذكاء الاصطناعي وتأمينها وضمان استمراريتها التشغيلية، وتُظهر نتائجه أن 2% فقط من المؤسسات تتمتع بمستوى عالٍ من الجاهزية يمكّنها من التعامل بكفاءة مع التحديات الجوهرية المرتبطة بتصميم هذه الأنظمة ونشرها وتشغيلها.
ورغم هذه الفجوة، تشير أبحاث أخرى صادرة عن EY إلى أن فرق تكنولوجيا المعلومات والأمن لا تملك رفاهية التريث الطويل. إذ يرى غالبية قادة الأعمال أن اعتماد الذكاء الاصطناعي الوكيل خلال العام الجاري أصبح ضرورة لتحقيق ميزة تنافسية بحلول الفترة نفسها من العام المقبل. غير أن المؤسسات التي تمنح نفسها الوقت الكافي لمعالجة قضايا الأمن والحوكمة بشكل منهجي ستكون، بحسب التقديرات، في وضع أكثر استقرارًا وأقل تعرضًا للمخاطر بحلول عام 2026، مقارنة بتلك التي تتجاهل هذه الجوانب.
وفي هذا الإطار، تحدد F5 ثلاث ممارسات رئيسية ترى أنها أساسية للحد من المخاطر عند الانتقال إلى استخدام الذكاء الاصطناعي التوليدي والوكيل.
أولى هذه الممارسات تتعلق بتأمين النماذج. فالذكاء الاصطناعي التوليدي يعتمد في جوهره على نماذج اللغة الكبيرة، ولا يمكن للمؤسسات الاكتفاء بالاعتماد على مطوري هذه النماذج لتحسين الدقة أو تقليل ما يُعرف بالهلوسة أو منع محاولات التحايل. المطلوب هو الاستثمار في خدمات مخصصة للنماذج وآليات توجيه قادرة على رصد السلوكيات غير المرغوب فيها وإيقافها بشكل مستقل. كما أن استخدام أكثر من نموذج لغوي داخل المؤسسة يجعل من الضروري عزل التطبيقات عن واجهات الاستدلال البرمجية، بما يضمن التوافر وقابلية التوسع والتحكم في التكلفة.
الممارسة الثانية تركز على تأمين البيانات. فالبيانات التي تغذي نماذج الذكاء الاصطناعي، سواء كانت بيانات جديدة أو موجودة مسبقًا، تمثل أصولًا حساسة يجب حمايتها بشكل صارم. ولا تقتصر الحماية هنا على تشفير البيانات أثناء التخزين أو النقل، بل تمتد إلى القدرة على اكتشاف البيانات داخل بيئة المؤسسة، ومراقبة كيفية استخدامها، وضمان حمايتها حتى عند مشاركتها مع خدمات خارجية أو أطراف ثالثة معتمدة.
أما الممارسة الثالثة فتتعلق بتأمين وكلاء الذكاء الاصطناعي أنفسهم. فهؤلاء الوكلاء يمثلون تحولًا جذريًا في طريقة عمل الأنظمة، إذ يعتمدون على نماذج اللغة الكبيرة لاتخاذ قرارات وتنفيذ إجراءات لتحقيق أهداف يحددونها ذاتيًا. وللقيام بذلك، يحتاج الوكيل إلى صلاحيات واسعة للوصول إلى الموارد وإنشاء البيانات وتعديلها أو حذفها، ما يفرض الحاجة إلى آليات رقابة خارجية تتابع أداءه وتقيّم سلوكه بشكل مستمر.
وتشير F5 إلى بروز نهجين رئيسيين في هذا المجال. الأول يعتمد على أطر الحماية التنظيمية لوكلاء الذكاء الاصطناعي، مثل MCP-Universe، والتي تعمل على تحديد ما يُعرف بـ”الحقيقة الأساسية” عبر مقارنة نتائج الوكيل بإجراءات مرجعية محددة بدقة. ويتميز هذا النهج بتوفر نطاق واسع من الشيفرات النموذجية التي تساعد في التحقق من صحة المعطيات.
أما النهج الثاني فيعتمد على نموذج لغوي آخر، أو عدة نماذج، لتحليل سلوك الوكيل بعد نشره وتقييم جودة نتائجه وفق معايير تضعها المؤسسة نفسها، كما هو الحال في أطر LLM-as-a-Judge مثل الإطار الذي طورته مايكروسوفت. ويتميز هذا النهج بمرونته وسرعة تطوره، مع إمكانية دعمه بتدخل بشري عند الحاجة.
في المحصلة، ترى F5 أن الجمع بين هذه الممارسات الثلاث يتيح للمؤسسات إحكام السيطرة على النماذج والبيانات والوكلاء، وسد الفجوات المرتبطة بالأمن السيبراني والحوكمة. ومن دون هذا النهج المتكامل، ستظل المؤسسات عرضة لأنماط جديدة من المخاطر التي تصاحب التوسع السريع في استخدام الذكاء الاصطناعي التوليدي والوكيل، في مرحلة بات فيها الذكاء الاصطناعي أداة لا غنى عنها، لكنها تتطلب قدرًا أعلى من الانضباط والوعي.

















0 تعليق