الاخبار

كيف يغير الذكاء الاصطناعي موازين الإرهاب؟

خلال الملتقى السنوي لمراكز الفكر في الدول العربية

كيف يغير الذكاء الاصطناعي موازين الإرهاب؟

أبرز التهديدات التي تشكلها الجماعات الإرهابية باستخدامها للذكاء الاصطناعي

 

شارك اللواء دكتور طارق جمعة مهدي – مسؤول مرصد الإرهاب بمركز الدراسات الاستراتيجية وتنمية القيم مصر، بكلمة بعنوان: كيف يغير الذكاء الاصطناعي موازين الإرهاب، وذلك خلال الملتقى السنوي لمراكز الفكر في الدول العربية، تحت شعار: نحو آلية عربية لمواجهة التهديدات الناتجة عن استخدام الذكاء الاصطناعي من قبل الجماعات الإرهابية، والذي عقد بمقر جامعة الدول العربية يومي 23 – 24 ديسمبر 2024.

وبرعاية إعلامية مجلة نهر الأمل

أشار مهدي أن الذكاء الاصطناعى “AI” في ظل الثورة التكنولوجية المتسارعة، أصبح أداة فعَّالة في جميع المجالات، بما في ذلك المجالات السلبية والخطيرة كالإرهاب ونشر الأفكار المتطرفة. تتبنى التنظيمات الجهادية الذكاء الاصطناعي كوسيلة حديثة لنشر أيديولوجياتها واستقطاب الأفراد، عبر استغلال منصات التواصل الاجتماعي، التزييف العميق (Deepfake)، والتعلم الآلي، في المقابل ظهرت مبادرات تستخدم الذكاء الاصطناعي لمحاربة هذه الأنشطة. يناقش هذا المقال كيف استغلت التنظيمات المتطرفة الذكاء الاصطناعي لنشر أفكارها، ويوضح كيف تم توظيف الذكاء الاصطناعي في مواجهتها، مدعوماً بأمثلة دقيقة وناجحة.

 

ثم تحدث عن الذكاء الاصطناعي كأداة لنشر الأفكار الجهادية من خلال النقاط التالية:

  1. أدوات الذكاء الاصطناعي وتوظيفها في خدمة التطرف
  • التحليل السلوكي عبر البيانات الضخمة (Big Data)
  • تستخدم التنظيمات الجهادية البيانات الضخمة المتاحة على الإنترنت لفهم سلوك المستخدمين، ومن ثم استهداف الفئات الأكثر عُرضة للتجنيد، مثل الشباب أو المهاجرين.
  • مثال: تنظيم داعش استخدم برامج تحليلية لفهم أنماط التصفح لدى فئة الشباب العربي في أوروبا، مما مكنهم من تخصيص رسائل جذَّابة تلبي اهتمامات كل فرد على حدة.

 

  • روبوتات المحادثة (Chatbots)
  • يتم إنشاء روبوتات دردشة قادرة على التفاعل المباشر مع الأفراد، محاكية لغة دينية وأسلوب منطقي لإقناع المستهدفين.
  • مثال: في عام 2018، تم الكشف عن روبوتات مرتبطة بتنظيم القاعدة على تطبيق “تليجرام”، صممت للإجابة على الأسئلة الدينية، مروجة لفكر التنظيم.

 

ثم تطرق في كلمته إلى التزييف العميق (Deepfake) من خلال:

  • تستفيد التنظيمات من تقنيات التزييف العميق لإنتاج مقاطع فيديو دعائية تثير المشاعر، وتبدو أكثر مصداقية.
  • مثال: تم العثور على مقاطع فيديو زائفة تُسبِّب لقادة دينيين يدعون للانضمام إلى الجهاد، مما زاد من فعالية حملات التجنيد.

 

كما تحدث عن استغلال منصات التواصل الاجتماعي وأوضحها فيما يلي:

خوارزميات التوصية (Recommendation Algorithms)

  • التنظيمات تستغل الخوارزميات الذكية لتوجيه المستخدمين نحو محتوى متطرف.
  • مثال: في دراسة أجريت على “يوتيوب”، وُجِدَ أن مقاطع فيديو مرتبطة بداعش كانت تظهر ضمن الاقتراحات للمستخدمين الذين يشاهدون محتويات دينية.

 

وأشار إلى نقص التنسيق الدولي موضحاً أن غياب التنسيق الفعَّال بين الدول يضعف قُدرة المجتمع الدولي على مكافحة الإرهاب الرقمي بشكل شامل.

 

وفي الختام قال إن الذكاء الاصطناعي أصبح محوراً أساسياً في معركة المواجهة ضد التطرف والجماعات الجهادية. ورغم أن التنظيمات المتطرفة استفادت من هذه التكنولوجيا لتعزيز دعايتها، فإن الأدوات نفسها أصبحت قوة فعَّالة في مواجهتها. لتحقيق تقدم ملموس، يجب تعزيز التعاون الدولي، تطوير التقنيات المضادة، والاهتمام بالنوعية الفكرية لمواجهة الأفكار الجهادية على جميع المستويات.

 

كانت هناك بعض التوصيات أوردها فيما يلي:

  1. زيادة الاستثمار في تقنيات الذكاء الاصطناعي لرصد المحتوى المتطرف وتحليله.
  2. تعزيز التعاون بين الحكومات والشركات التقنية لتطوير أدوات مكافحة الإرهاب.
  3. توسيع نطاق الحملات التوعوية التي تستهدف الفئات المعرضة للتجنيد.

 

ثم أشار إلى التعاون الدولي لمواجهة التطرف الرقمي في نقطتين:

مشاركة البيانات بين الحكومات والشركات التقنية

  • التعاون بين المؤسسات التقنية والحكومات هو أساس التصدي للمحتوى الجهادي.
  • مثال: مبادرة Global Internet Forum to Counter Terrorism جمعت بين شركات مثل جوجل وفيسبوك لمحاربة المحتوى الإرهابي، وأثمرت عن إزالة أكثر من 300 ألف منشور خلال عام واحد فقط.

 

التتبع الرقمي للشبكات الإرهابية

  • يتم استخدم الذكاء الاصطناعي لتحليل أنماط الاتصال والتفاعل بين أفراد التنظيمات.
  • مثال: في عام 2020، استطاعت أجهزة أمنية أوروبية تعطيل شبكة دعائية تابعة لداعش بعد أن حللت أنماط النشاط الرقمي الخاص بها.

 

تحدث أيضاً عن التحديات المرتبطة باستخدام الذكاء الاصطناعي في المواجهة من خلال النقاط التالية:

  1. التطور السريع للتقنيات الإرهابية
  • التنظيمات المتطرفة غالباً ما تكون سبَّاقة في استخدم التقنيات الحديثة، مما يُصعِّب على الجهات الأمنية مجاراتها.
  1. قضايا الخصوصية
  • استخدام تقنيات الذكاء الاصطناعي لمراقبة النشاط الرقمي يثير قلقاً بشأن الخصوصية وحرية التعبير.

مجموعات النقاش المغلقة

  • تُستخدم منصات مثل “فيسبوك” و”تيليجرام” لإنشاء مجموعات مغلقة تعتمد على الذكاء الاصطناعي لضمان سرية الأعضاء وإدارة النقاشات.
  • مثال: تم تفكيك شبكة تابعة لداعش على “تيليجرام” عام 2020، حيث كانت تعتمد على برمجيات لإدارة الأعضاء الجُدد، والتأكد من أنهم ليسوا متسللين أو جواسيس.

 

أضاف بعض الأمثلة العملية منها:

  • داعش وتنظيم الإعلانات الموجهة:

داعش استخدم أدوات الذكاء الاصطناعي لتصميم إعلانات تستهدف الشباب في أوروبا، مثل مقاطع فيديو قصيرة تظهر مقاتلين أوروبيين يروون “قصص نجاحهم”، مما ساعد في جذب مئات المقاتلين الأجانب.

 

  • مقاطع دعائية عبر التزييف العميق:

في عام 2019، انتشرت مقاطع فيديو زائفة تصور عمليات إنقاذ “إنسانية” لمقاتلي التنظيمات الجهادية، مما أكسبهم تعاطفاً واسعاً من غير المتعاطفين مسبقاً.

 

ثم اختتم كلمته موضحاً أهمية دور الذكاء الاصطناعي في مواجهة الأفكار الجهادية من خلال تلك النقاط:

  1. الرصد والتصفية الرقمية للمحتوى المتطرف
  • استخدام الذكاء الاصطناعي لاكتشاف المحتوي
  • تقنيات معالجة اللغة الطبيعية (NLP) تُستخدم لاكتشاف الكلمات والعبارات المرتبطة بالتطرف.
  • مثال: فيسبوك يستخدم تقنية تعتمد على الذكاء الاصطناعي لإزالة 99% من المحتوى المرتبط بالإرهاب قبل أن يتم الإبلاغ عنه من قِبَل المستخدمين.

#مجلة_نهر_الأمل

اظهر المزيد

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى