التزييف العميق يُهدد مؤسساتك.. و7% فقط جاهزون للمواجهة

الوفد 0 تعليق ارسل طباعة تبليغ حذف

تخأن تتلقى مكالمة فيديو من مديرك التنفيذي يطلب فيها تحويلًا ماليًا عاجلًا، لكن الشخص الذي تراه ليس مديرك، بل نموذج ذكاء اصطناعي يحاكيه بدقة مذهلة، هذا السيناريو لم يعد خيالًا علميًا، بل واقع تتعامل معه المؤسسات اليوم. 

وما يزيد الأمر إثارةً للقلق أن 7% فقط من المتخصصين في مكافحة الاحتيال يرون أن مؤسساتهم مستعدة لمواجهته.

صدر مؤخرًا تقرير "المقارنة المعيارية لتقنيات مكافحة الاحتيال 2026"، وهو الإصدار الرابع من سلسلة أبحاث مشتركة بين جمعية المدققين المعتمدين للاحتيال ACFE وشركة ساس المتخصصة في البيانات والذكاء الاصطناعي. 

استُند في إعداده إلى استطلاع شمل 713 متخصصًا في مكافحة الاحتيال عبر ثماني مناطق حول العالم وأكثر من 12 قطاعًا.

النتيجة الأبرز كانت صادمة، 7% فقط من المتخصصين يرون أن مؤسساتهم تتجاوز مستوى الاستعداد المتوسط لاكتشاف الاحتيال المدعوم بالذكاء الاصطناعي أو منعه، بمعنى آخر، 93% من المؤسسات تواجه تهديدات متصاعدة بأدوات دفاعية غير كافية.

المحتالون يتقدمون.. والمؤسسات تلهث خلفهم

أكد التقرير أن جميع أساليب الاحتيال المدعومة بالذكاء الاصطناعي التي شملتها الدراسة سجّلت ارتفاعًا خلال العامين الماضيين، وتصدرت عمليات الهندسة الاجتماعية باستخدام التزييف العميق قائمة الارتفاعات، إذ أشار 77% من المشاركين إلى زيادة ملحوظة.

 وجاء في المراتب التالية احتيال المستهلكين بنسبة 75%، وتزوير المستندات بالذكاء الاصطناعي التوليدي بنسبة 75% أيضًا، ثم الاختراق الرقمي عبر التزييف العميق بنسبة 72%.

والأشد خطورةً هو ما ينتظر في المستقبل القريب: يتوقع 55% من المشاركين زيادة كبيرة في هجمات الهندسة الاجتماعية وتزوير المستندات بالذكاء الاصطناعي التوليدي خلال الـ24 شهرًا المقبلة.

قال جون جيل، رئيس جمعية ACFE، إن التهديدات المدعومة بالذكاء الاصطناعي لم تعد احتمالًا مستقبليًا، بل واقعًا متسارعًا، محذرًا من أن المؤسسات التي لا تعزز دفاعاتها ستصبح أهدافًا سهلة للمحتالين.

تبني الذكاء الاصطناعي في الدفاع.. بطيء ومتأخر

على الجانب الدفاعي، تتحسن الأرقام لكن ببطء لافت، يستخدم نحو ربع المؤسسات حاليًا الذكاء الاصطناعي وتعلم الآلة في برامج مكافحة الاحتيال، بارتفاع من 18% عام 2024، ويتوقع 28% آخرون اعتماده بحلول عام 2028، لكن الفجوة بين وتيرة تطور الهجمات ووتيرة تطور الدفاعات لا تزال واسعة بشكل مقلق.

والأكثر إثارةً للقلق هو الفجوة في الحوكمة: يرى 86% من المؤسسات أن دقة نتائج الذكاء الاصطناعي أمر جوهري، لكن 18% فقط يختبرون نماذجهم من حيث التحيز والعدالة، وفيما يعتبر 82% أن "القدرة على التفسير" عنصر مهم، لا تتجاوز نسبة من يثقون تمامًا بقدرة مؤسساتهم على شرح قرارات نماذج الذكاء الاصطناعي 6% فقط.

وحذر عبد حمندي، كبير مديري قسم الاستشارات لمكافحة الاحتيال في ساس لمنطقة أوروبا والشرق الأوسط وأفريقيا، من أن النجاح لا يقتصر على تبني التقنيات، بل يتطلب تعزيز الحوكمة ورفع مستوى الشفافية وبناء قدرات تواكب تطور أساليب الاحتيال.

كشف التقرير عن مشهد متناقض في اعتماد التقنيات الناشئة لمكافحة الاحتيال، القياسات الحيوية المادية تتصدر المشهد باعتماد 45% من المؤسسات لها مقارنةً بـ34% عام 2022.

 أما الذكاء الاصطناعي التوليدي فلا يستخدمه في مكافحة الاحتيال سوى 16% حاليًا، رغم أن 58% يخططون لاعتماده قريبًا، وأبرز تطبيقاته المُعتمدة حتى الآن: كشف التصيد والاحتيال بنسبة 49%، وتحديد المخاطر بنسبة 46%.

وعلى صعيد المستقبل القريب، يُشكّل الذكاء الاصطناعي الوكيلي رهانًا كبيرًا؛ إذ يعتمده 8% حاليًا، لكن ثلث المؤسسات تقريبًا تتوقع اعتماده بحلول 2028، وهي أعلى نسبة توقع لتبني تقنية ناشئة في الدراسة بأسرها.

أما الحوسبة الكمية، فتبقى على أبواب التأثير الفعلي: يتوقع 62% أنها ستُحدث أثرًا واضحًا في كشف الاحتيال بحلول 2030، فيما أفاد 11% بأن هذا التأثير بدأ فعلًا.

إخترنا لك

أخبار ذات صلة

0 تعليق