كشفت شركة Proofpoint، المتخصصة في الأمن السيبراني والامتثال، عن تقريرها العالمي الأول لعام 2026 بعنوان “AI and Human Risk Landscape”، والذي يسلّط الضوء على الفجوة المتزايدة بين سرعة تبني الذكاء الاصطناعي داخل المؤسسات ومستوى جاهزيتها لمواجهة المخاطر الأمنية المرتبطة به.
الإمارات ضمن الأكثر تقدماً في تبني الذكاء الاصطناعي
أظهر التقرير أن المؤسسات في دولة الإمارات تُعد من بين الأكثر تقدماً في نشر تقنيات الذكاء الاصطناعي، حيث أكد 92% من المؤسسات أنها اعتمدت مساعدين ذكيين خارج مرحلة التجارب، بينما أشار 80% إلى تقدمها في استخدام الأنظمة الوكيلية (Autonomous Agents).
وعلى الرغم من هذا التقدم، لا تزال التحديات الأمنية قائمة، إذ أبدى 49% من المؤسسات عدم ثقة كاملة في قدرة أنظمة الحماية الحالية على اكتشاف اختراقات الذكاء الاصطناعي.
تسارع التبني يفوق الجاهزية الأمنية
يشير التقرير إلى أن اعتماد الذكاء الاصطناعي انتقل بسرعة من مرحلة التجارب إلى التشغيل الفعلي، حيث أصبح جزءاً أساسياً من وظائف متعددة مثل خدمة العملاء، والتواصل الداخلي، والبريد الإلكتروني، والتعاون مع الأطراف الخارجية.
وعالمياً، وصلت نسبة المؤسسات التي اعتمدت مساعدين ذكيين إلى 87%، بينما تعمل 76% منها على تطوير أو نشر وكلاء ذكيين. ومع ذلك، فإن أكثر من نصف هذه المؤسسات غير قادرة على التأكد من فعالية أنظمة الحماية لديها، بل إن العديد منها واجه بالفعل حوادث مرتبطة بالذكاء الاصطناعي.
قنوات التعاون تتحول إلى سطح هجوم رئيسي
مع توسع استخدام الذكاء الاصطناعي، أصبحت قنوات التعاون الرقمية تمثل نقطة ضعف رئيسية. وأشار التقرير إلى أن التطبيقات السحابية والخدمات الخارجية تمثل 58% من مصادر التهديد، يليها البريد الإلكتروني بنسبة 52%، ومنصات المراسلة والتواصل الاجتماعي بنسبة 42%، والرسائل النصية بنسبة 41%.
وفي المؤسسات التي تعرضت لحوادث فعلية، ارتفعت نسب التعرض عبر مختلف القنوات، مما يعكس اتساع سطح الهجوم مع انتشار الذكاء الاصطناعي.
فجوة بين الثقة وفعالية أنظمة الحماية
رغم أن 57% من المؤسسات في الإمارات تؤكد امتلاكها لأنظمة حماية للذكاء الاصطناعي، إلا أن 51% منها لا تثق تماماً في قدرتها على اكتشاف الاختراقات. كما أن 40% من المؤسسات التي تمتلك هذه الأنظمة قد واجهت بالفعل حوادث مرتبطة بالذكاء الاصطناعي.
وتشمل أبرز الثغرات:
- غياب تقييم المخاطر لأنظمة الذكاء الاصطناعي (48%)
- عدم وجود نماذج لاكتشاف الأنظمة المخترقة (44%)
- نقص التدريب (41%)
تحديات التحقيق في الحوادث
عند وقوع حوادث مرتبطة بالذكاء الاصطناعي، تواجه المؤسسات صعوبة في التحقيق، حيث أفاد 53% فقط بأنها مستعدة بشكل كامل للتحقيق، بينما أشار 39% إلى صعوبة ربط التهديدات عبر القنوات المختلفة.
ويعكس ذلك نقصاً في الرؤية الشاملة عبر الأنظمة المتصلة، وهو عامل أساسي لفهم الحوادث وتحليلها.
تعدد الأدوات يعقّد المشهد الأمني
أبرز التقرير أن تعدد أدوات الأمن السيبراني يمثل تحدياً هيكلياً، حيث أكد 98% من المؤسسات في الإمارات أن إدارة هذه الأدوات تمثل صعوبة، فيما وصف 68% الأمر بأنه صعب للغاية.
وتشمل أبرز التحديات:
- تداخل الأدوات وتكرارها (45%)
- صعوبة ربط التهديدات (39%)
- بطء عمليات التحقيق (39%)
توجه نحو منصات موحدة للأمن
مع توسع استخدام الذكاء الاصطناعي، بدأت المؤسسات في إعادة التفكير في بنية الأمن السيبراني، حيث:
- 51% تعمل على توحيد الأدوات والموردين
- 47% ترى أن المنصات الموحدة أكثر فعالية من الحلول المنفصلة
- 65% تخطط لتعزيز الحماية الخاصة بالذكاء الاصطناعي خلال العام المقبل
كما تسعى المؤسسات إلى تحسين التغطية الأمنية عبر قنوات التعاون المختلفة، وتبني نهج أكثر تكاملاً في إدارة الأمن.
الذكاء الاصطناعي يضخم المخاطر التقليدية
أوضح التقرير أن الذكاء الاصطناعي لا يخلق تهديدات جديدة بالكامل، بل يضاعف تأثير المخاطر الموجودة مسبقاً مثل التعامل مع بيانات حساسة أو تشغيل أكواد غير موثوقة، ولكن على نطاق وسرعة أكبر بكثير.
وفي هذا السياق، تؤكد Proofpoint أن الحل يكمن في تطبيق ضوابط أمنية قوية ومجربة على جميع الأنظمة التي يتفاعل معها الذكاء الاصطناعي، لضمان التوسع الآمن في استخدام هذه التقنيات.
بشكل عام، يبرز التقرير أن المؤسسات في الإمارات تقود تبني الذكاء الاصطناعي في المنطقة، لكنها في الوقت ذاته تواجه تحدياً حقيقياً في مواكبة هذا التوسع من ناحية الأمن السيبراني، مما يجعل بناء أساس أمني قوي أولوية استراتيجية للمرحلة القادمة.



