مايكروسوفت تحذر من ثغرات وكلاء الذكاء الاصطناعي المستقلين وتأثيرها على الأمن السيبراني

أصدرت شركة مايكروسوفت تقريرًا استراتيجيًا مفصلًا ضمن سلسلة تحذيراتها الأمنية، مسلطة الضوء على المخاطر المرتبطة بوكلاء الذكاء الاصطناعي المستقلين (AI Agents)، في وقت تتعمق فيه هذه التقنيات داخل العمليات المؤسسية.
من الرد إلى الفعل: جوهر التحذير
توضح مايكروسوفت أن الوكلاء الذكيين يمتلكون القدرة على الوصول إلى البريد الإلكتروني، التقويم، وقواعد البيانات، وتنفيذ مهام معقدة مثل حجز رحلات أو إرسال تقارير مالية دون تدخل بشري مباشر، ما يجعلهم هدفًا جذابًا للهجمات السيبرانية.
أبرز التهديدات المرصودة:
- هجمات حقن الأوامر غير المباشرة (Indirect Prompt Injection):
يمكن للمهاجمين تضمين تعليمات خبيثة مخفية داخل البريد الإلكتروني، والتي يقوم الوكيل بتنفيذها دون علم المستخدم، مثل تسريب بيانات العملاء. - معضلة الصلاحيات المفرطة (Over-Privileging):
منح الوكلاء صلاحيات إدارية واسعة يجعل اختراق وكيل واحد بمثابة الوصول إلى كافة أسرار المؤسسة، وهو ما وصفته مايكروسوفت بـ”كابوس الصلاحيات”. - ظهور الذكاء الاصطناعي “الخفي” (Shadow AI):
يعتمد نحو 30% من الموظفين على وكلاء ذكاء اصطناعي من جهات خارجية غير معتمدة، ما يؤدي إلى إرسال بيانات حساسة إلى خوادم خارجية غير خاضعة للرقابة، ويزيد خطر تسريب المعلومات. - ثغرة “إيكو ليك” (EchoLeak):
تستهدف ذاكرة الوكيل، مما قد يسمح للمهاجم بالكشف عن سجلات الدردشة السابقة والبيانات السياقية، وهو ما يهدد أسرارًا تجارية وبيانات شخصية.
نموذج أمني جديد
طرحت مايكروسوفت نموذجًا أمنياً يعتمد على ثلاثة أعمدة:
- الموافقة البشرية الإلزامية (Human-in-the-Loop): منع الوكلاء من تنفيذ أي إجراء عالي المخاطر دون موافقة الإنسان.
- مبدأ الحد الأدنى من الصلاحيات: تقييد وصول الوكيل فقط للمهام الحالية.
- المراقبة المستمرة: استخدام أدوات ذكاء اصطناعي لمراقبة سلوك الوكلاء واكتشاف أي انحراف عن الأنماط الطبيعية.
وتؤكد مايكروسوفت أن وكلاء الذكاء الاصطناعي يمثلون “المحرك القادم للإنتاجية”، لكن بدون حماية صارمة قد يتحولون إلى “حصان طروادة” داخل الشركات، مما يجعل الأمن الرقمي شرطًا أساسيًا للبقاء في عصر الذكاء الاصطناعي.









