
التفاوض كإدارة مخاطر: عراقجي وأسلوب التفاوض الإيراني

العراق يواجه التطرف الالكتروني: معركة جديدة بعد داعش

تقرير "غداً" لإدارة المخاطر عام 2025

المغرب تدمج الذكاء الاصطناعي لمواجهة التحديات الأمنية

تقرير المخاطر العالمية 2024

لم يعد الذكاء الاصطناعي اليوم مجرد أداة أو تقنية محصورة في المختبرات أو الشركات التقنية، بل تسلل إلى عمق العملية السياسية ليصبح اللاعب الخفي، خاصة في تشكيل الرأي العام وصناعة القرار، إن ما يُعرف اليوم بـ «الذكاء الاصطناعي السياسي» يمثل واحدًا من أخطر وأعمق التحولات في علاقة التقنية بالسلطة أو التوجه السياسي، إذ تتقاطع فيه البيانات مع النفوذ، والخوارزميات مع الديمقراطية، لتفتح الباب أمام تساؤلات جوهرية: هل سيعزز الذكاء الاصطناعي مستقبلًا سياسيًا أكثر شفافية وكفاءة؟ أم أنه سيخلق نوعًا جديدًا من الديكتاتورية الرقمية؟
يقصد بالذكاء الاصطناعي السياسي استخدام تقنيات الذكاء الاصطناعي، مثل تحليل البيانات الضخمة، والتعلم الآلي، ومعالجة اللغة الطبيعية، في مجالات السياسة والحكم، ويتراوح ذلك من فهم اتجاهات الرأي العام، مرورًا بالتنبؤ بنتائج الانتخابات، وصولًا إلى صياغة سياسات عامة مبنية على البيانات بدلًا من الحدس السياسي.
يمثل الذكاء الاصطناعي اليوم في مجال تحليل الرأي العام أحد أبرز التطورات في هذا الحقل المتنامي بسرعة، فبفضل قدرته على معالجة ملايين التفاعلات على وسائل التواصل الاجتماعي، يستطيع قياس المزاج الشعبي بصورة أسرع وأكثر دقة من استطلاعات الرأي التقليدية، التي باتت تعاني التعقيد والتأخر في فهم السلوك الاجتماعي.
كما أن أدوات الذكاء الاصطناعي في مجال التنبؤ السياسي توفر بيانات دقيقة حول احتمالات نجاح السياسات أو فشلها، مما يعزز عقلانية القرار السياسي، ويُعد ذلك من أبرز التحديات الإيجابية لفهم سلوك صانع القرار واستناده إلى كمٍّ هائل من البيانات التي يتدرب عليها الذكاء الاصطناعي وصولًا إلى القرار الأكثر عقلانية وملاءمة، سواء في الوضع السياسي العراقي أو غيره.
وتستخدم الحملات الانتخابية أدوات الذكاء الاصطناعي لتوجيه إعلانات سياسية مصممة خصيصًا لكل فرد بناءً على اهتماماته وسلوكياته الرقمية عبر المنصات الأكثر استخدامًا، ومن جانب آخر، يمكن لهذه الأدوات المساهمة في كشف الأخبار الكاذبة والدعاية المضللة، إذ يرصد الذكاء الاصطناعي المحتوى الزائف بسرعة، مما يساعد على حماية الناخبين من التضليل.
لكن بالمقابل، يمكن استغلال تقنيات الذكاء الاصطناعي لإنتاج محتوى زائف يصعب كشفه، مثل تقنيات الـ Deepfake، وهذا ما حذرت منه المفوضية العليا المستقلة للانتخابات في العراق، مؤكدة يوم الثلاثاء الموافق 26/8/2025 أن استخدام المرشحين للذكاء الاصطناعي بصورة سلبية مؤثرة في الآخرين يُعد مخالفة تصل إلى مستوى الجريمة الانتخابية، وأوضحت أن التحقيق في مثل هذه الجرائم يتطلب الاستعانة بخبراء فنيين لبيان ما إذا كان المحتوى حقيقيًا أم صُنع باستخدام الذكاء الاصطناعي.
إن التلاعب بالرأي العام عبر الخوارزميات قد يحوِّل الديمقراطية إلى "إدارة للرغبات" بدلًا من التعبير الحر، وهو ما يُخالف كل المبادئ والقيم الانتخابية التي يجب أن يلتزم بها أي مرشح أو كيان سياسي.
ومن هنا يمكن اقتراح عدد من الخطوات التشريعية الممهدة للحفاظ على القيمة العليا للانتخابات والعمل السياسي، أبرزها:
• تشريع قانون حماية البيانات الشخصية، بما يمنع استخدام بيانات الناخبين دون موافقتهم.
• إلزام الأحزاب السياسية بالإفصاح عن أي استخدام للذكاء الاصطناعي في الحملات الانتخابية.
• إنشاء هيئات رقابية أو أقسام متخصصة داخل المفوضية لمتابعة النزاهة الرقمية للانتخابات.
في النهاية، يبقى الذكاء الاصطناعي السياسي سيفًا ذا حدين: إما أن يكون أداة لتعزيز الديمقراطية أو وسيلة لترسيخ الديكتاتورية الرقمية، والفيصل بين الوجهين يكمن في وجود تشريعات واضحة وأطر أخلاقية تنظيمية صارمة تحكم استخدامه.
تعليقات الزوار