06 - 06 - 2025

مخاطر الذكاء الاصطناعي تهدد الأمن السياسي والعسكري للدول

مخاطر الذكاء الاصطناعي تهدد الأمن السياسي والعسكري للدول

تزايد الأعمال الإجرامية بسهولة وبشكل دقيق يصعب معها تحديد الفاعل أو تجنبها 
توجيه أسراب من آلاف الطائرات بدون طيار وتركيب الكلام وانتحال الهوية وتسمّم البيانات واختراق الخصوصيات
خلْق ثورات وهمية بالفيديو لتضليل الرأي العام تجاه شخص أو دولة أو فكرة وفشلِ الدول سياسياً في حماية مواطنيها 
انتهاء وظائف بأكملها خلال أقل من عشر سنوات ليعاني السواد الأعظم من البطالة
الإرهابيون يستفيدون من الأنظمة الأمنية التي ينشرها الباحثون على مواقع الإنترنت.

 تنمو قدرات الذكاء الاصطناعي والتعلم الآلي بمعدل غير مسبوق، وتحتوي هذه التقنيات على العديد من التطبيقات - بدءاً من الترجمة الآلية إلى تحليل الصور الطبية- وحالياً يجري تطوير عدد لا يُحصى من هذه التطبيقات، ويستعرض هذا التقرير طبيعة التهديدات الأمنية المحتملة من الاستخدامات الضارة لتقنيات الذكاء الاصطناعي، لكنه يقترح طرقاً أفضل للتنبؤ بهذه التهديدات ومنعها والتخفيف من حدتها. 

بداية هناك أربع مستويات عالية من التوصيات ينبغي وضعها بالاعتبار رداً على مشهد التهديد المتغير والمتسع لتقنيات الذكاء الاصطناعي:

1- ينبغي تعاون صناع السياسات والقوانين والتشريعات بشكل وثيق مع الباحثين التقنيين للتحقيق في الاستخدامات الضارة المحتملة لتقنيات الذكاء الاصطناعي ومنعها والتخفيف من حدتها.

2- على الباحثين والمهندسين في مجال الذكاء الاصطناعي أن يأخذوا طبيعة الاستخدام المزدوج لتقنياته على محمل الجد، مما يسمح للاعتبارات المتعلقة بسوء الاستخدام بالتأثير على أولويات ومعايير البحث، والتوصل والتعرف بشكل استباقي على الجهات الإجرامية والتخريبية والمسؤولة ذات الصلة بالتعامل مع تهديدات ومخاطر الذكاء الاصطناعي عند توقع الاستخدامات الضارة لتطبيقاته.

3- تحديد أفضل الممارسات في مجالات البحوث مع طرق ومنهجيات أكثر نضجاً لمعالجة االتهديدات المتوقعة للتطبيقات المزدوجة الاستخدام؛ مثل أمْن الحواسيب.

4- توسيع نطاق أصحاب المصلحة والمهتمين والخبراء في المجال للمشاركة في مناقشات هذه التحديات.

ولأن قدرات الذكاء الاصطناعي باتت أكثر قوة وأوسع انتشاراً؛ فيتوقع الاستخدام المتزايد لأنظمة الذكاء الاصطناعي مما قد يؤدي إلى تغيير المشهد على النحو التالي:

• توسّع وتزايد التهديدات الحالية؛ فقد يتم تخفيض تكلفة الهجمات من خلال الاستخدام المتزايد والقابل للتوسع لأنظمة الذكاء الاصطناعي لإنجاز المهام التي تتطلب عادةً عِمالة وذكاء وخبرة بشرية، وبالتالي يؤدي لتزايد المجموعات الإرهابية والإجرامية الفاعلة التي يمكنها شن هجمات معينة، وإرتفاع معدلها، واتساع مجموعة الأهداف المحتملة.

• ظهور نوع من التهديدات الجديدة باستخدام أنظمة الذكاء الاصطناعي لإنجاز المهام التي قد تكون غير عملية للإنسان، وقد تستغل الجهات الإرهابية والإجرامية نقاط ضعف أنظمة الذكاء الاصطناعي التي ينشرها الباحثون والمطورن للأنظمة الأمنية على مواقع الإنترنت.

• التغيير في النظرة والمفهوم إلى الطابع النموذجي للتهديدات؛ يُعتقد أن هناك سبباً لتوقع أن الهجمات التي سيتم ارتكابها من خلال الاستخدام المتزايد لتطبيقات الذكاء الاصطناعي هي فعالة بشكل خاص، وموجهة بشكل دقيق، ومن الصعب تحديدها.

أما أخطر مجالات الذكاء الاصطناعي فنجدها في مجالات الأمن الثلاثة:

• الأمن الرقمي: فاستخدام الذكاء الاصطناعي لـ "أتمتة" المهام التي ينطوي عليها تنفيذ الهجمات الإلكترونية سيخفف من المفاضلة القائمة بين نطاق الهجمات وفعاليتها، وقد يوسع هذا من التهديد المرتبط بالهجمات الإلكترونية المكثفة (مثل التصيّد الاحتيالي)، كما نتوقع هجمات جديدة تستغل نقاط الضعف البشرية (على سبيل المثال من خلال استخدام تركيب الكلام لانتحال الهوية)، أو نقاط ضعف البرامج الموجودة (على سبيل المثال من خلال القرصنة الآلية)، أو نقاط ضعف أنظمة الذكاء الاصطناعي (على سبيل المثال، من خلال تسمّم البيانات).

• الأمن المادي: إن استخدام الذكاء الاصطناعي لـ "أتمتة" المهام التي ينطوي عليها تنفيذ هجمات باستخدام طائرات بدون طيار وأنظمة تسليح أخرى (على سبيل المثال من خلال نشر أنظمة أسلحة مستقلة) قد يوسع التهديدات المرتبطة بهذه الهجمات، كما نتوقع هجمات جديدة تقوض الأنظمة السيبرانية (على سبيل المثال التسبب في انهيار المركبات ذاتية الحركة) أو تنطوي على أنظمة غير مرئية من الممكن توجيهها عن بعد (على سبيل المثال سِرب من المئات أو الآلاف من الطائرات الصغيرة الموجهة عن بعد).

• الأمن السياسي: قد يؤدي استخدام الذكاء الاصطناعي لـ "أتمتة" المهام المتضمنة في المراقبة (مثل تحليل البيانات المجمعة والبيانات الضخمة) والإقناع والتلاعب بالرأي العام (مثل إنشاء دعاية مستهدفة) والخداع (مثل التلاعب بالفيديو)، إلى توسيع التهديدات المرتبطة بغزو الخصوصية، والتلاعب الاجتماعي والسياسي وتشكيل تيار للرأي العام، كما نتوقع هجمات جديدة تستفيد من تحسين القدرة على تحليل السلوكيات البشرية والمزاجية والمعتقدات المستندة إلى البيانات المتاحة، هذه المخاوف هي الأكثر أهمية في سياق الدول التي لا تتبنى النظم الديمقراطية، ولكنها قد تقوض أيضاً قدرة الديموقراطيات على الحفاظ على مكتساباتها المبنية على الناقشات العامة والصادقة لقضايا مجتمعاتهم.

لقد تقدمت تقنيات الذكاء الاصطناعي والتعلم الآلي للآلات بسرعة في السنوات الأخيرة، وقد أتاح تطورها مجموعة واسعة من التطبيقات المفيدة؛ مثل التعرف التلقائي على الكلام، والترجمة الآلية، وفلاتر الرسائل غير المرغوب فيها ومحركات البحث، ومن بين التقنيات الواعدة الأخرى التي يجري بحثها حالياً السيارات ذاتية القيادة (بدون سائق) والمساعدات الرقمية للممرضات والأطباء، والطائرات بدون طيار التي تسهل عمليات الإسعاف من أجل الإسراع في عمليات الإغاثة في حالات الكوارث، وفي المستقبل هناك وعد بتقليص العمالة الزائدة، مما يسرع كثيراً من البحث العلمي، ويحسن نوعية الخدمات الحكومية، فالجميع متحمس للعديد من هذه التطورات رغم أضرارها بشكل أو بآخر.

حيث يمكن أن يؤدي الاستخدام الضار لتطبيقات الذكاء الاصطناعي إلى تهديد الأمن الرقمي (على سبيل المثال من خلال آلات مدربة على اختراق الأنظمة الأمنية الإلكترونية)، والأمان الجسدي (الجهات الإرهابية والإجرامية التي تقوم بتسليح الطائرات بدون طيار)، والأمن السياسي (من خلال القضاء على الخصوصيةوالقيام بعمليات المراقبة، وتضليل وتوجيه الرأي العام).

إن الاستخدام الضار لتطبيقات الذكاء الاصطناعي يؤثر على كيفية بناء وإدارة البنية التحتية الرقمية، ليصبح السؤال هو: كيف يمكننا التنبؤ أو منع أو التخفيف من الآثار الضارة تطبيقات الذكاء الاصطناعي؟ 

تؤكد الجهات البحثية أنه خلال السنوات القريبة القادمة ستتزايد قدرة المهاجمين على إلحاق الضرر بالنظم الرقمية والروبوتية بشكل كبير، لأن الجهات الإجرامية والتخريبية يمكن أن تستخدم التجسس للحصول على الرموز. 

كما أنه من المرجح أن يصعب تأمين البشر من الهجمات ومعاقبة المهاجمين، مما قد تتآكل الثقة داخل المجتمعات، وبين المجتمعات وحكوماتها، وبين الحكومات بعضها بعضاً، وستتعرض الأمم لضغوط لحماية مواطنيها واستقرارهم السياسي.

إن الذكاء الاصطناعي، والأمن الرقمي، والأمن المادي، والأمن السياسي مرتبطان بعمق، ومن المرجح أن يصبحا أكثر صلابة، في المجال "السيبراني"، حتى عند مستويات القدرة الحالية، يمكن استخدام الذكاء الاصطناعي لزيادة الهجمات على البنية التحتية السيبرانية والدفاع عنها، ويغير إدخالها في المجتمع نطاق الهجوم الذي يمكن للقراصنة استهدافه.

ومع زيادة قدرة أنظمة الذكاء الاصطناعي فإنها ستصل أولاً؛ ثم تتفوق على القدرات البشرية في العديد من المجالات، وهي الآن تنفذ مهاماً بشرية مهمة مثل الاستثمار في سوق الأوراق المالية أو قيادة السيارات.

وبتوسعة أنظمة الذكاء الاصطناعي في المجالات التي يُعتقد عادة أنها بشرية بشكل فريد (مثل التفاعل الاجتماعي)، سنرى هجمات هندسية اجتماعية أكثر تعقيداً تعتمد على هذه القدرات، من الصعب للغاية الدفاع عن هذه الهجمات، حتى يمكن لخبراء الأمن الإلكتروني أن يقعوا فريسة لرسائل البريد الإلكتروني التي تستهدف التصيد الاحتيالي؛ قد يتسبب ذلك في حدوث انفجار في اختراق الشبكة، وسرقة البيانات الشخصية، ووباء فيروسات الكمبيوتر الذكية. 

واحدة من أفضل آمالنا في الدفاع ضد القرصنة الآلية هي أيضا من خلال الذكاء الاصطناعي، من خلال "أتمتة" أنظمة الدفاع "السيبراني" لدينا، وبالفعل تسعى الشركات بشكل متزايد إلى هذه الاستراتيجية، لكن الدفاع القائم على الذكاء الاصطناعي ليس دواء لكل داء، خاصة عندما ننظر إلى ما وراء النطاق الرقمي، كما ينبغي القيام بمزيد من العمل في فهم التوازن الصحيح للانفتاح في تطبيقات وأنظمة الذكاء الاصطناعي، وتطوير إجراءات تقنية محسّنة للتحقق بشكل رسمي من متانة النظم، وضمان وضع أطر السياسات في عالم أقل تغلغلا ً في التكيف مع العالم الجديد الذي ننشئه، مع نشر أنظمة استخباراتية لمجموعة من الأهداف.

رغم أن المخاطر المحددة للاستخدام الضار عبر المجالات الرقمية والمادية والسياسية هي عدد لا يحصى، فإننا نعتقد أن فهم القواسم المشتركة عبر هذا المشهد، بما في ذلك دور الذكاء الاصطناعي في تمكين الهجمات على نطاق أوسع وأكثر عددا، مفيد في إلقاء الضوء على العالم قُدُماً وإبلاغ جهود الوقاية والتخفيف بشكل أفضل، لذا ينبغي التفكير في طرق تعزيز الفهم الجماعي لرابطة الذكاء الاصطناعي، والانضمام إلى الحوار حول ضمان أن التطور السريع لتطبيقات وأنظمة الذكاء الاصطناعي لا يتم بشكل صحيح وعادل فقط بل وآمن أيضاً.

هذا التقرير مصدره عدد من الدراسات البحثية والمحاضرات المتخصصة للدكتور الأكاديمي عميد/ إبراهيم حمد الهنائي؛ الحاصل على الدكتوراه في علوم الحاسب الالي تخصص أدلة الكترونية من جامعة "لانكستر" البريطانية، وماجيستير الجرائم الالكترونية، وماجيستير نظم المعلومات من جامعة "سندرلاند" البريطانية، والبورد الأمريكي في الإدارة والموارد البشرية.
--------------------------
تقرير- حورية عبيدة