حوكمة الذكاء الاصطناعي في النظام الدولي: رؤية جيوسياسية
حوكمة الذكاء الاصطناعي في النظام الدولي: رؤية جيوسياسية
 

م.م. اماني خالد عبد الهادي 
جامعة بغداد / كلية الإدارة والاقتصاد
عضو الهيئة العامة للجمعية العراقية للعلوم السياسية


 
المقدمة
لم يعد الذكاء الاصطناعي مجرد تقنية ناشئة تُستخدم لتحسين الكفاءة أو تسريع الإنتاج، بل أصبح عنصرًا مركزيًا في إعادة تشكيل موازين القوة في النظام الدولي. فالدول لم تعد تتنافس فقط على الموارد الطبيعية أو النفوذ العسكري، بل على القدرة على تطوير الخوارزميات، والتحكم في البيانات، واحتكار البنى التحتية الرقمية. وفي هذا السياق، تحوّل الذكاء الاصطناعي من مجال تقني إلى ساحة صراع استراتيجي، حيث تتقاطع فيه اعتبارات الأمن القومي، والسيادة الرقمية، والهيمنة الاقتصادية.
إن حوكمة الذكاء الاصطناعي لم تعد مسألة تنظيم أخلاقي أو قانوني فحسب، بل أصبحت قضية جيوسياسية بامتياز. فالقواعد التي ستنظم استخدام هذه التكنولوجيا، والمعايير التي ستُعتمد دوليًا، ومن يملك حق صياغتها، كلها أسئلة تحدد شكل النظام الدولي في العقود القادمة. فكما أن الثورة الصناعية أعادت توزيع القوة بين الإمبراطوريات، فإن ثورة الذكاء الاصطناعي تعيد اليوم صياغة مفهوم القوة ذاته؛ إذ لم تعد السيطرة تقاس فقط بعدد الجيوش، بل بحجم البيانات، وسرعة المعالجة، وقدرة الأنظمة على التعلم الذاتي.
وفي ظل غياب إطار عالمي ملزم ينظم هذه التكنولوجيا، تتجه القوى الكبرى إلى صياغة معاييرها الخاصة، ما يهدد بتفتيت الفضاء الرقمي إلى مناطق نفوذ تقنية. وهنا تبرز معضلة الحوكمة: هل يمكن بناء نظام تنظيمي عالمي يوازن بين الابتكار والسيادة؟ أم أن الذكاء الاصطناعي سيصبح امتدادًا لصراعات النفوذ التقليدية، ولكن بأدوات رقمية أكثر تعقيدًا وأقل وضوحًا؟
من هذا المنطلق، لا يمكن فهم حوكمة الذكاء الاصطناعي بمعزل عن بنية النظام الدولي. فالمسألة لا تتعلق فقط بالأمن السيبراني أو حماية الخصوصية، بل بسباق هيمنة يتداخل فيه الاقتصاد بالتكنولوجيا، والأخلاق بالاستراتيجية، والقانون بالقوة. ومن هنا تنطلق هذه القراءة الجيوسياسية، التي ترى في الذكاء الاصطناعي ليس مجرد أداة، بل ساحة جديدة لإعادة تعريف القوة والسيادة في القرن الحادي والعشرين.
المحور الأول: الذكاء الاصطناعي كأداة قوة… من التكنولوجيا إلى الجيوبوليتيك
لم يعد الذكاء الاصطناعي يُفهم بوصفه مجرد امتداد للثورة الرقمية أو أداة لتحسين الإنتاجية الاقتصادية، بل أصبح عنصرًا بنيويًا في إعادة تعريف مفهوم القوة في النظام الدولي. فالقوة التقليدية، كما صاغتها النظريات الواقعية، كانت ترتكز على الجغرافيا، والموارد الطبيعية، والقدرة العسكرية، وحجم الاقتصاد الصناعي. غير أن التحول الرقمي المتسارع نقل مركز الثقل من السيطرة على الأرض والمواد الخام إلى السيطرة على البيانات والخوارزميات والبنية التحتية الحاسوبية. وبذلك، لم تعد الهيمنة تقاس فقط بعدد حاملات الطائرات أو احتياطات النفط، بل بحجم قواعد البيانات، وقدرة المعالجة، وامتلاك نماذج ذكاء اصطناعي متقدمة قادرة على التعلم والتنبؤ وصناعة القرار.
هذا التحول لا يُلغي أدوات القوة التقليدية، بل يعيد هندستها. فالجيش الحديث يعتمد على تحليل البيانات، والاستخبارات القائمة على التعلم الآلي، وأنظمة اتخاذ القرار شبه الذاتية. والاقتصاد العالمي أصبح مرتبطًا بقدرة الدول على إدارة سلاسل الإمداد الذكية، وتحليل الأسواق لحظيًا، وتطوير أنظمة أتمتة واسعة النطاق. وهكذا أصبح الذكاء الاصطناعي قوة مضاعِفة (Force Multiplier) تعيد توزيع المزايا النسبية بين الدول. الدولة التي تتفوق خوارزميًا لا تعزز قدرتها الاقتصادية فحسب، بل تزيد من قدرتها على التخطيط الاستراتيجي، وإدارة الأزمات، والتأثير في سلوك الفاعلين الآخرين.
في هذا السياق، انتقل مركز الثقل من الموارد الطبيعية إلى البيانات بوصفها المادة الخام الجديدة للنظام الدولي. فالبيانات لم تعد مجرد منتج جانبي للنشاط الاقتصادي، بل أصبحت أصلًا استراتيجيًا يحدد موقع الدولة في سباق الابتكار. الدول التي تملك كثافة سكانية رقمية، وبنية تحتية سحابية متقدمة، وقدرة على تخزين ومعالجة كميات هائلة من المعلومات، باتت تمتلك أفضلية هيكلية في تطوير نماذج الذكاء الاصطناعي. وهنا يظهر بوضوح أن السيطرة على تدفقات البيانات، ووضع قواعد حركتها عبر الحدود، وتحكم المنصات الرقمية، كلها عناصر تدخل في صلب معادلة القوة الحديثة.
ومن هذا المنطلق، أصبح الذكاء الاصطناعي عنصرًا محوريًا في سباق الهيمنة بين القوى الكبرى. فالاستثمارات الضخمة في الرقائق الإلكترونية المتقدمة، والبنية التحتية الحاسوبية، والبحوث العسكرية المدعومة بالذكاء الاصطناعي، تعكس إدراكًا بأن التفوق التكنولوجي لم يعد ميزة اقتصادية فحسب، بل شرطًا استراتيجيًا للحفاظ على الموقع الدولي. التنافس لا يدور فقط حول من ينتج أفضل التطبيقات، بل حول من يحدد المعايير، ومن يتحكم في سلاسل توريد المكونات الحيوية، ومن يستطيع فرض قيود أو عقوبات رقمية على خصومه. وبذلك يتحول الذكاء الاصطناعي إلى مسرح صراع صامت لكنه حاسم، يعيد رسم حدود النفوذ العالمي.
أما العلاقة بين التفوق الخوارزمي والأمن القومي، فهي علاقة مباشرة وعميقة. فالقدرة على تحليل البيانات الاستخباراتية بسرعة فائقة، وتطوير أنظمة دفاعية ذاتية، والتنبؤ بالتهديدات قبل وقوعها، تمنح الدولة ميزة استراتيجية يصعب تعويضها بالوسائل التقليدية. وفي المقابل، فإن الاعتماد المفرط على أنظمة غير محكومة قد يخلق مخاطر جديدة، تتراوح بين الهجمات السيبرانية المعززة بالذكاء الاصطناعي وفقدان السيطرة البشرية على أنظمة القرار الآلي. وهنا يتضح أن التفوق الخوارزمي لا يعزز الأمن فحسب، بل يعيد تعريف طبيعته، ويخلق معادلة جديدة بين الردع والمخاطرة.
انطلاقًا من ذلك، فإن حوكمة الذكاء الاصطناعي لا يمكن اختزالها في نقاش أخلاقي أو تنظيمي محدود. إنها مسألة تتعلق بكيفية توزيع القوة في النظام الدولي، وبمن يملك القدرة على صياغة قواعد الاستخدام وحدوده. فالقواعد التي تُعتمد اليوم في تنظيم الذكاء الاصطناعي قد تحدد شكل التوازنات العالمية لعقود قادمة. ومن هنا، يصبح النقاش حول الحوكمة نقاشًا سياسيًا–استراتيجيًا بامتياز، يعكس إدراكًا بأن التكنولوجيا لم تعد محايدة، بل أصبحت أحد أهم ميادين الجيوبوليتيك في القرن الحادي والعشرين.
المحور الثاني : تنافس المعايير… صراع على كتابة قواعد المستقبل
إذا كان الذكاء الاصطناعي قد أصبح أداة قوة استراتيجية، فإن المعركة الأكثر عمقًا لا تدور فقط حول تطويره، بل حول من يملك حق تنظيمه. فالتاريخ الدولي يُظهر أن القوة لا تُمارَس عبر التفوق المادي وحده، بل عبر القدرة على صياغة القواعد التي تحكم استخدام هذه القوة. ومن هنا تحولت حوكمة الذكاء الاصطناعي إلى ساحة تنافس جيوسياسي على كتابة “دستور التكنولوجيا” للقرن الحادي والعشرين. فالمعايير التنظيمية، وقواعد حماية البيانات، وآليات المساءلة الخوارزمية، ليست مسائل تقنية محايدة، بل أدوات لإعادة توزيع النفوذ العالمي.
في هذا السياق، تميل الولايات المتحدة إلى تبني نموذج قائم على السوق المفتوح والابتكار غير المقيد نسبيًا، حيث يُنظر إلى الذكاء الاصطناعي بوصفه محركًا للنمو الاقتصادي وريادة الأعمال. هذا النموذج يمنح القطاع الخاص دورًا محوريًا في تطوير التكنولوجيا، ويُفضّل التنظيم المرن الذي لا يُثقل الابتكار بقيود صارمة. غير أن هذا النهج يحمل في طياته رؤية استراتيجية واضحة: الحفاظ على تفوق الشركات الأمريكية العملاقة، وترسيخ الهيمنة التكنولوجية عبر المعايير الصناعية التي تنشأ فعليًا من داخل السوق نفسها. فحين تنتشر منصة أو نموذج معين عالميًا، تتحول قواعده التقنية إلى معيار دولي بحكم الواقع، لا بحكم الاتفاق الرسمي.
في المقابل، تتبنى الصين نموذجًا مختلفًا يقوم على الدولة الموجهة، حيث يُنظر إلى الذكاء الاصطناعي كأداة لتعزيز الاستقرار الداخلي، وتحقيق القفزات التنموية، وتعظيم النفوذ الدولي. الدولة هنا ليست منظمًا خارجيًا فحسب، بل شريكًا مباشرًا في توجيه الاستثمار وتحديد الأولويات الاستراتيجية. ويعكس هذا النموذج تصورًا سياديًا للفضاء الرقمي، حيث تُعطى الأولوية للسيطرة على البيانات والبنية التحتية الوطنية، ويُدمج الذكاء الاصطناعي ضمن رؤية أشمل للأمن القومي. هذا المسار لا يهدف فقط إلى اللحاق بالتفوق الغربي، بل إلى صياغة منظومة معايير بديلة تعكس فلسفة مختلفة في العلاقة بين الدولة والتكنولوجيا والمجتمع.
أما الاتحاد الأوروبي، فيسعى إلى تقديم نموذج ثالث يقوم على التنظيم الأخلاقي والحقوقي. فبدل التركيز على التفوق الصناعي أو السيطرة السيادية الصارمة، يضع الاتحاد إطارًا قانونيًا يركز على حماية الخصوصية، والشفافية، والمساءلة، ومنع التمييز الخوارزمي. هذا التوجه لا يخلو من بعد استراتيجي؛ إذ إن فرض معايير تنظيمية صارمة داخل سوق كبيرة ومؤثرة يمنح أوروبا قدرة غير مباشرة على تصدير قواعدها إلى الخارج. فالشركات العالمية التي ترغب في الوصول إلى السوق الأوروبية تجد نفسها مضطرة للامتثال لتلك المعايير، ما يحول التنظيم إلى أداة نفوذ ناعم.
غير أن تعدد هذه النماذج يطرح خطرًا بنيويًا يتمثل في تفتيت الفضاء الرقمي العالمي إلى كتل تنظيمية متنافسة. فإذا لم تتقاطع المعايير أو تُنسَّق دوليًا، قد ينشأ نظام رقمي مجزأ، حيث تعمل الخوارزميات ضمن أطر قانونية متباينة، وتُقيّد تدفقات البيانات بحدود سياسية، ويتراجع الطابع العالمي للإنترنت لصالح “جزر تنظيمية” منفصلة. هذا الانقسام لا يعني فقط اختلافًا في القوانين، بل اختلافًا في فلسفة التكنولوجيا ذاتها، ما قد يعمق الفجوة بين أنماط الحكم الرقمي ويجعل التفاعل بينها أكثر تعقيدًا.
من هنا يتضح أن الصراع حول الذكاء الاصطناعي لم يعد يقتصر على تطوير الرقائق أو تدريب النماذج، بل امتد إلى مستوى أعمق: من يحدد حدود الاستخدام، ومن يضع تعريفات المخاطر، ومن يملك سلطة اعتماد المعايير؟ إن كتابة قواعد المستقبل هي في جوهرها معركة على النفوذ طويل الأمد. فالدولة التي تنجح في تحويل رؤيتها التنظيمية إلى معيار عالمي، لا تحكم التكنولوجيا فحسب، بل تعيد تشكيل بنية النظام الدولي بما يتوافق مع تصورها للقوة والسيادة.
المحور الثالث: عسكرة الخوارزميات… الذكاء الاصطناعي والأمن الدولي
إذا كان الذكاء الاصطناعي قد أعاد تشكيل مفاهيم القوة الاقتصادية، فإنه في المجال الأمني يُحدث تحولًا أكثر عمقًا وخطورة. فالتكنولوجيا التي تُستخدم لتحليل الأسواق أو تحسين الخدمات يمكن توظيفها في أنظمة عسكرية ذاتية، وفي إدارة ساحات قتال رقمية، وفي تسريع اتخاذ القرار الاستراتيجي إلى مستويات غير مسبوقة. وهنا ينتقل النقاش من سؤال التنظيم المدني إلى سؤال توازن الردع العالمي. إذ لم يعد التفوق العسكري يقاس فقط بعدد الرؤوس الحربية أو المنصات القتالية، بل بقدرة الأنظمة على المعالجة اللحظية للمعلومات، والتنبؤ بسلوك الخصم، وتنفيذ عمليات معقدة بأقل تدخل بشري.
أحد أبرز مظاهر هذا التحول يتمثل في أنظمة الأسلحة الذاتية، التي تعتمد على خوارزميات قادرة على تحديد الأهداف واتخاذ قرار الاشتباك بصورة شبه مستقلة. هذه الأنظمة تَعِد بزيادة الكفاءة وتقليل الخسائر البشرية في صفوف الجيوش، لكنها في الوقت ذاته تطرح إشكاليات أخلاقية واستراتيجية عميقة. فالسرعة التي تعمل بها هذه الأنظمة قد تقلص زمن التفكير السياسي في لحظات التصعيد، ما يرفع احتمالات سوء التقدير. وفي بيئة تنافسية بين قوى كبرى، قد يتحول السباق نحو تطوير هذه الأسلحة إلى سباق لا يمكن التراجع عنه، خوفًا من فقدان التفوق النسبي.
إلى جانب ذلك، عزز الذكاء الاصطناعي قدرات الحرب السيبرانية بصورة لافتة. فالخوارزميات المتقدمة قادرة على تحليل أنماط الشبكات، واكتشاف الثغرات، وتطوير هجمات تكيفية تتغير استراتيجياتها تلقائيًا استجابة لإجراءات الدفاع. هذا التطور لا يزيد فقط من فعالية الهجوم، بل يجعل من الصعب تحديد مصدره بدقة، ما يعقّد حسابات الردع التقليدي. ففي عالم تُدار فيه الهجمات عبر أنظمة تعلم آلي، قد يصبح تحديد المسؤولية عملية رمادية، وهو ما يضعف آليات الردع القائمة على وضوح الخصم.
أما التأثير الأكثر حساسية فيتعلق بالاستقرار النووي. فأنظمة الإنذار المبكر والتحليل الاستخباراتي أصبحت تعتمد بصورة متزايدة على أدوات تحليل بيانات متقدمة. وفي حال دمج الخوارزميات في سلاسل اتخاذ القرار النووي، قد يؤدي ذلك إلى تسريع الاستجابة في حالات الاشتباه بالهجوم، لكن على حساب تقليص المساحة الزمنية للتقييم البشري. وفي بيئة يسودها الشك المتبادل، قد تفسَّر الإشارات الخاطئة أو البيانات المضللة بوصفها تهديدًا وشيكًا، ما يرفع احتمالات التصعيد غير المقصود. وهنا يظهر أن الذكاء الاصطناعي لا يعزز الردع فحسب، بل يعيد صياغة توازناته الدقيقة.
من أخطر أبعاد عسكرة الخوارزميات احتمال فقدان السيطرة البشرية في أنظمة القرار الآلي. فكلما زادت درجة الاستقلالية الممنوحة للأنظمة الذكية، تقلص الدور البشري في الحلقة الأخيرة من القرار. صحيح أن هذا يمنح سرعة وكفاءة، لكنه في المقابل يطرح سؤالًا حول المسؤولية والمساءلة. فإذا اتخذ نظام ذاتي قرارًا خاطئًا في سياق عسكري حساس، من يتحمل العواقب؟ هذه الإشكالية لا تقتصر على البعد الأخلاقي، بل تمتد إلى صميم الاستقرار الدولي، إذ إن غموض المسؤولية قد يُضعف قنوات التواصل التقليدية بين الدول في أوقات الأزمات.
من هنا يتضح أن عسكرة الذكاء الاصطناعي تنقل النقاش من إطار التنظيم المدني إلى قلب الأمن الاستراتيجي. فالخوارزميات لم تعد أدوات محايدة، بل أصبحت عناصر فاعلة في معادلة الردع والتصعيد. ومع غياب اتفاق دولي ملزم يحد من استخداماتها العسكرية، يظل النظام الدولي معرضًا لسباق تسلح خوارزمي قد يغير طبيعة الحرب نفسها. إن حوكمة الذكاء الاصطناعي في هذا السياق ليست مسألة تقنية، بل ضرورة استراتيجية لضبط توازنات قوة تتشكل في فضاء رقمي سريع التحول.
المحور الرابع: هل يمكن بناء حوكمة عالمية؟ بين التعددية والانقسام الرقمي
إذا كان الذكاء الاصطناعي قد أصبح عنصرًا بنيويًا في إعادة توزيع القوة، فإن السؤال الأكثر إلحاحًا لا يتعلق فقط بكيفية تطويره، بل بكيفية ضبطه. فإمكانية إنشاء إطار عالمي لحوكمة الذكاء الاصطناعي تصطدم بحقيقة أن النظام الدولي ذاته يعيش مرحلة انتقالية تتسم بتراجع التوافقات الكبرى وتزايد الشكوك المتبادلة. إن بناء نظام ملزم يتطلب حدًا أدنى من الثقة بين القوى الرئيسة، بينما يشير الواقع إلى تصاعد التنافس وتسييس التكنولوجيا، ما يجعل أي اتفاق شامل عرضة للتعطيل أو الالتفاف.
أحد أبرز التحديات أمام إنشاء نظام دولي ملزم يتمثل في طبيعة الذكاء الاصطناعي نفسه. فهذه التكنولوجيا مزدوجة الاستخدام؛ يمكن توظيفها في مجالات مدنية وتنموية، كما يمكن دمجها في تطبيقات عسكرية وأمنية. هذا التداخل يصعّب الفصل بين الاستخدام المشروع وغير المشروع، ويجعل من الرقابة الدولية مسألة شديدة التعقيد. كما أن وتيرة الابتكار السريعة تتجاوز أحيانًا قدرة الأطر القانونية على مواكبتها، ما يخلق فجوة زمنية بين التطور التقني والتنظيم القانوني. وفي ظل هذا التسارع، قد تميل الدول إلى الاحتفاظ بهامش مرونة واسع بدل الالتزام بقيود دولية صارمة.
إلى جانب التحديات التقنية، تبرز فجوة الثقة بين القوى الكبرى كعقبة بنيوية أمام أي إطار عالمي. فكل قوة تنظر إلى الذكاء الاصطناعي بوصفه عنصرًا حاسمًا في أمنها القومي، ما يجعلها مترددة في تقاسم المعلومات الحساسة أو القبول بآليات تحقق قد تكشف نقاط ضعفها. هذا المناخ من الريبة المتبادلة يعيد إنتاج منطق سباق التسلح، ولكن في بعد خوارزمي. ومع غياب ثقة كافية، تتحول الدعوات إلى الحوكمة إلى أدوات خطابية أكثر منها التزامات عملية، ويصبح الاتفاق الشامل صعب التحقيق.
رغم ذلك، لا يمكن تجاهل دور المنظمات الدولية والتحالفات الإقليمية في محاولة صياغة أطر تنظيمية. فالأمم المتحدة، عبر لجانها المعنية بالتقنيات الناشئة ونزع السلاح، توفر منصة للحوار حول مخاطر الاستخدام العسكري، وإن كانت تفتقر إلى أدوات إلزام فعالة. كما أن التكتلات الإقليمية، كالاتحاد الأوروبي، تسعى إلى تصدير معاييرها التنظيمية إلى الخارج من خلال قوة سوقها وتأثيرها الاقتصادي. غير أن هذه الجهود تبقى جزئية ما لم تُدمج في إطار أوسع يحقق قدرًا من الاتساق العالمي.
في ضوء هذه المعطيات، يمكن تصور ثلاثة سيناريوهات رئيسة لمستقبل الحوكمة. السيناريو الأول يتمثل في نشوء حوكمة عالمية نسبية، تقوم على اتفاق حد أدنى يحدد المبادئ الأساسية لاستخدام الذكاء الاصطناعي، خصوصًا في المجال العسكري، دون أن يلغي التنافس في بقية المجالات. السيناريو الثاني هو التعددية المعيارية، حيث تتعايش أطر تنظيمية مختلفة تعكس تباين النماذج السياسية والاقتصادية، مع استمرار التعاون المحدود بين الكتل. أما السيناريو الثالث، والأكثر خطورة، فهو انقسام رقمي حاد، تنشأ فيه منظومات تكنولوجية منفصلة بمعايير متعارضة، ما يؤدي إلى تجزئة الفضاء الرقمي العالمي وتعميق الاستقطاب الجيوسياسي.
إن الرؤية المستقبلية لحوكمة الذكاء الاصطناعي ترتبط في النهاية بمسار النظام الدولي ذاته. فإذا اتجه العالم نحو قدر من الاستقرار التعددي، فقد تنجح الجهود في بناء قواعد مشتركة تضبط المخاطر الكبرى. أما إذا استمر منطق المنافسة الصفرية، فقد تتحول التكنولوجيا إلى أداة تعميق للانقسام بدل أن تكون مجالًا للتعاون. وفي كل الأحوال، فإن الحوكمة لم تعد مسألة تنظيم إداري، بل اختبارًا لقدرة المجتمع الدولي على التكيف مع تحولات القوة في عصر الخوارزميات.
الخاتمة
الذكاء الاصطناعي كساحة إعادة تعريف السيادة
لم يعد الذكاء الاصطناعي مجرد تقنية تنافسية بين شركات أو أداة تطوير اقتصادي بين دول، بل أصبح ساحة مركزية لإعادة تعريف السيادة في القرن الحادي والعشرين. فالدولة التي تملك القدرة على تطوير الخوارزميات، والتحكم في البيانات، وصياغة المعايير التنظيمية، لا تعزز مكانتها التقنية فحسب، بل تعيد تثبيت موقعها في هرم القوة العالمي. وفي المقابل، فإن الدولة التي تظل مستهلكًا للتكنولوجيا دون أن تشارك في وضع قواعدها، تجد نفسها تدريجيًا داخل منظومة نفوذ لا تتحكم في شروطها.
لقد أظهر هذا التحليل أن حوكمة الذكاء الاصطناعي ليست مسألة أخلاقية أو قانونية معزولة، بل امتداد لصراع أوسع حول من يحدد قواعد المستقبل. فالسباق لم يعد يقتصر على التفوق في الابتكار، بل على احتكار تعريف المخاطر، وتحديد حدود الاستخدام، وصياغة الإطار المعياري الذي ستعمل ضمنه الأنظمة الذكية عالميًا. وبين نموذج السوق المفتوح، ونموذج الدولة الموجهة، والنموذج التنظيمي الحقوقي، يتشكل مشهد متعدد الأقطاب قد يفضي إما إلى توازن تنظيمي مرن، أو إلى انقسام رقمي يعمّق الاستقطاب الدولي.
السؤال الذي يفرض نفسه في نهاية المطاف ليس تقنيًا بحتًا، بل استراتيجيًا: هل تستطيع القوى الكبرى تجاوز منطق المنافسة الصفرية لبناء حد أدنى من القواعد المشتركة يضبط عسكرة الخوارزميات ويمنع انفلات سباق التسلح الرقمي؟ أم أن الذكاء الاصطناعي سيصبح امتدادًا لصراعات الهيمنة التقليدية، ولكن بأدوات أكثر تعقيدًا وأقل قابلية للضبط؟
إن الإجابة عن هذا السؤال ستحدد ما إذا كانت حوكمة الذكاء الاصطناعي ستتحول إلى أداة استقرار عالمي تُعيد صياغة التعاون الدولي على أسس جديدة، أم ستكرّس مرحلة من التجزئة الرقمية حيث تتعايش أنظمة متنافسة بمعايير متعارضة. وفي كلتا الحالتين، يبقى واضحًا أن الذكاء الاصطناعي لم يعد شأنًا تقنيًا داخليًا، بل أصبح أحد أبرز ميادين إعادة تعريف السيادة والنفوذ في النظام الدولي المعاصر.
 
2026-03-03 03:25 AM645