دفعت التطورات التكنولوجية الجديدة الذكاء الاصطناعي إلى الواجهة خلال الأشهر القليلة الماضية، فعلى الرغم من أنها تقنية يمكن أن تضيف مليارات الدولارات إلى الاقتصاد العالمي، لكن يصاحبها أيضًا عدد كبير من المخاطر الجديدة التي يمكن أن تقلب النظام الجيوسياسي العالمي.
وتعد إدارة هذه المخاطر أمرًا ضروريًّا، لا سيما في ظل احتدام النقاش العالمي حول حوكمة الذكاء الاصطناعي مع اتخاذ القوى الكبرى؛ مثل الولايات المتحدة والصين والاتحاد الأوروبي أساليب متباينة على نحو متزايد تجاه تنظيم تلك التكنولوجيا.
تحركات حكومية بشأن الذكاء الاصطناعي
ويشير تقرير لمجلس العلاقات الخارجية الأمريكي (مركز بحثي مقره واشنطن) إلى اتفاق جميع صناع السياسات وقادة المجتمع المدني والأكاديميين والخبراء المستقلين وقادة الصناعة تقريبًا على ضرورة إدارة الذكاء الاصطناعي، لكنهم ليسوا على توافق حول كيفية القيام بذلك.
فعلى المستوى الدولي، تتخذ الحكومات أساليب مختلفة، حيث صعّدت الولايات المتحدة تركيزها على إدارة الذكاء الاصطناعي خلال العام الماضي من خلال الإعلان عن تعهد 15 شركة تكنولوجية رائدة بتبني معايير مشتركة طوعًا لسلامة الذكاء الاصطناعي، كما أصدر الرئيس الأمريكي جو بايدن في أكتوبر الماضي أمرًا تنفيذيًّا يهدف إلى إعداد إطار موحد للاستخدام الآمن للذكاء الاصطناعي عبر السلطة التنفيذية. وبعد شهر واحد، اقترحت مجموعة من أعضاء مجلس الشيوخ من الحزبين الجمهوري والديمقراطي تشريعًا يحكم هذه التكنولوجيا.
كما يمضي المشرعون في الاتحاد الأوروبي قدمًا في تشريع يفرض متطلبات للشفافية، ويقيد استخدام الذكاء الاصطناعي لأغراض المراقبة. ومع ذلك أعرب بعض زعماء الاتحاد الأوروبي عن مخاوفهم من أن القانون قد يعيق الابتكار الأوروبي، مما يثير تساؤلات حول كيفية تنفيذه. أما في الصين، فقد أصدر الحزب الشيوعي (الحزب الحاكم) لوائح تتضمن متطلبات مكافحة التمييز، بالإضافة إلى ضرورة أن يعكس الذكاء الاصطناعي “القيم الأساسية الاشتراكية”.
كما سعت بعض الحكومات إلى التعاون في تنظيم الذكاء الاصطناعي على المستوى الدولي، حيث أطلقت دول مجموعة السبع خلال قمتهم في مايو الماضي، ما يسمى بعملية هيروشيما لتطوير معيار مشترك بشأن حوكمة الذكاء الاصطناعي.
وفي أكتوبر الماضي، شكّلت الأمم المتحدة مجلسًا استشاريًّا للذكاء الاصطناعي – يضم ممثلين عن الولايات المتحدة والصين – لتنسيق الحوكمة العالمية للذكاء الاصطناعي. وفي الشهر التالي، حضرت 28 حكومة أول قمة على الإطلاق لسلامة الذكاء الاصطناعي، والتي عقدت في بريطانيا، ووقّع المندوبون – بما في ذلك ممثلا الولايات المتحدة والصين – إعلانًا مشتركًا يحذر من قدرة الذكاء الاصطناعي على التسبب في ضرر “كارثي”، متعهدين بالعمل معًا “لضمان ذكاء اصطناعي يتمحور حول الإنسان وجدير بالثقة ومسؤول”. كما أعلنت الصين أيضًا عن جهودها الخاصة بالحوكمة العالمية للذكاء الاصطناعي للدول المشاركة في مبادرة الحزام والطريق.
عناصر لحوكمة الذكاء الاصطناعي
وفي هذا الإطار، ترى كات دافي، الزميلة البارزة في مجلس العلاقات الخارجية أن تعقيد الذكاء الاصطناعي يجعل من غير المرجح أن تكون التكنولوجيا محكومة بمجموعة واحدة من المبادئ. وتشتمل المقترحات على سلسلة كاملة من الخيارات مع مستويات كثيرة من الرقابة المحتملة، بدءًا من التنظيم الذاتي الكامل إلى أنواع مختلفة من حواجز حماية السياسة العامة.
ويعترف بعض المحللين بأن مخاطر الذكاء الاصطناعي لها عواقب مزعزعة للاستقرار، لكنهم يجادلون بأن تطوير التكنولوجيا يجب أن يستمر. ويقولون إن الهيئات التنظيمية يجب أن تضع حدودًا على الحوسبة، أو قوة الحوسبة، التي زادت بمقدار خمسة مليارات مرة على مدى العقد الماضي. ويقول آخرون إن الحوكمة يجب أن تركز على الاهتمامات المباشرة مثل تحسين معرفة عامة الناس بالذكاء الاصطناعي، وإنشاء أنظمة أخلاقية للذكاء الاصطناعي تشمل الحماية من التمييز والمعلومات المُضللة والمراقبة.
وقد دعا بعض الخبراء إلى فرض قيود على النماذج مفتوحة المصدر، والتي يمكن أن تزيد من وصول الجميع -بما في ذلك الجهات الفاعلة السيئة- إلى التكنولوجيا. ويؤيد كثير من خبراء الأمن القومي وشركات الذكاء الاصطناعي الرائدة مثل هذه القواعد. ومع ذلك، يحذر مراقبون من أن القيود واسعة النطاق يمكن أن تقلل المنافسة والابتكار من خلال السماح لأكبر شركات الذكاء الاصطناعي لتعزيز قوتها في صناعة مكلفة.
من ناحية أخرى، هناك مقترحات لإطار عالمي لإدارة الاستخدامات العسكرية للذكاء الاصطناعي؛ بحيث يتم تصميمه على غرار الوكالة الدولية للطاقة الذرية، التي تحكم كل ما يتعلق بالتكنولوجيا النووية.
تأثير الذكاء الاصطناعي على الساحة الدولية
تُشغل حوكمة الذكاء الاصطناعي حيزًا كبيرًا في العلاقة بين الولايات المتحدة والصين، فبينما تتبع بكين استراتيجية وطنية تهدف إلى جعل الصين رائدة عالمية في “نظريات وتقنيات وتطبيقات الذكاء الاصطناعي” بحلول عام 2030، يواجه صنّاع السياسات في واشنطن صعوبة في وضع حواجز حول تطوير الذكاء الاصطناعي دون تقويض التفوق التكنولوجي للولايات المتحدة، وفي الوقت نفسه، تتقدم تكنولوجيا الذكاء الاصطناعي بسرعة.
وفي غياب حوكمة عالمية قوية، فإن الشركات التي تتحكم في تطوير الذكاء الاصطناعي تمارس الآن سلطة مخصصة عادة للدول، مما يبشر بنظام عالمي تكنولوجي قطبي.
فهذه الشركات أصبحت في حد ذاتها جهات فاعلة جيوسياسية، وبالتالي يجب أن تشارك في تصميم أي قواعد عالمية، فإمكانات الذكاء الاصطناعي تتضمن مخاطر كبيرة، لكن مع وجود الضمانات المناسبة، يمكن لتلك الأنظمة تحفيز الاكتشافات العلمية التي تعالج الأمراض الفتاكة، وتمنع أسوأ آثار تغير المناخ، وتدشن عصرًا من الرخاء الاقتصادي العالمي.
وتأسيسًا على ما سبق، يمكن القول بأن التطور المتسارع في تقنيات الذكاء الاصطناعي وتوظيفها في مجالات مختلفة من دون وجود إطار تنظيمي قانوني يحكم تلك المسألة يدق ناقوس خطر، بشأن إساءة استخدام تلك التقنيات بتوظيفها عن عمد في انتهاك الخصوصية، أو حتى أن تتسبب أنظمة الذكاء الاصطناعي في إحداث ضرر كبير غير مقصود أثناء تنفيذ توجيهاتها.