يعد التطور التكنولوجي والدخول في عالم الذكاء الاصطناعي وامتلاك التقنيات الحديثة في الأتمتة والخوارزميات المغذية للحواسب الآلية والروبوتات متطلبا أساسيا للتقدم والتطور في المجالات المعتمدة على تقنيات الذكاء الاصطناعي واستخداماته المتعددة، لكن لا ينفي هذا وجود تحديات ومخاطر تواجه الإنسان جراء هذه الاستخدامات لا تقتصر على الجوانب الاقتصادية من حيث سوق العمل ومعدلات البطالة فقط، وإنما توجد أيضًا مخاطر قانونية واجتماعية وإعلامية تؤثر على الفرد فيما يتعلق بحريته في التعبير، وخصوصية آرائه وبياناته التي ينتهكها الذكاء الاصطناعي وتقنياته الحديثة.
وعلى الرغم من أن الذكاء الاصطناعي يمثل أساسًا مذهلًا للتنمية المسؤولة في مجتمعاتنا، فإنه يثير قضايا أخلاقية كبرى تحتاج إلى إجابات أو سياسات لتلافي المخاطر لعل أبرزها كيف يمكننا التأكد من أن الخوارزميات لا تنتهك حقوق الإنسان الأساسية من الخصوصية وسرية البيانات إلى حرية الاختيار وحرية الضمير.
وفي هذا الإطار، نشرت مجلة “آفاق عربية وإقليمية” في عددها الصادر في يونيو 2023، دراسة بعنوان “الذكاء الاصطناعي وتحدياته الاجتماعية والإعلامية والقانونية.. رؤية استشرافية” من إعداد الدكتورة هند فؤاد السيد وآخرين، هدفت إلى تطوير رؤية استشرافية لتنظيم وتطوير الذكاء الاصطناعي والروبوتات لتلافي التداعيات الاجتماعية والإعلامية والقانونية التي تمس الأفراد في المجتمعات العربية جراء تطبيقه، نستعرضها على النحو التالي:
- تجهيز البنية التحتية المادية
إن امتلاك التكنولوجيا الذكية بمختلف أجيالها وتقنياتها يستلزم تجهيز البنية التحتية من حيث الشبكات المعلوماتية والبيئة الرقمية والعوامل المساعدة لامتلاك هذه التقنيات وتوفير المستلزمات التقنية والوسائطية والحواسب المختلفة والتمويل اللازم لامتلاك هذه التكنولوجيا والتعامل معها، بجانب تنظيم الشركات والبيئة المحيطة التي تستوعبها. وأيضًا العمل على تطوير هذه التقنيات وليس فقط امتلاكها من خلال التعلم والابتكار واستيعاب العقول البشرية لها ومحاولة تطويرها بما لا يتنافى مع حقوق هذه العقول.
- تهيئة المجتمعات والأفراد
في المجتمعات العربية التي تتميز بخصوصية ثقافية واجتماعية في نشأتها وتكوينها الثقافي والعرقي يجب أن تراعى تلك الخصوصية عند امتلاك تقنيات الذكاء الاصطناعي، من خلال العمل على تهيئة البيئة والمجتمعات والأفراد للدخول في هذا العالم وذلك عبر:
- الإعلان عن استراتيجية الدولة في استخداماتها لتكنولوجيا الذكاء الاصطناعي في أي قطاعات والهدف من استخدامها بشكل واضح وشفاف.
- احترام حقوق الأفراد في الإعلان عن استخدامات الذكاء الاصطناعي والروبوتات بشكل واضح وشفاف.
- التدرج في استخدامات الذكاء الاصطناعي والروبوتات بشكل يعمل على المزج في المراحل الأولى بين هذه التكنولوجيا والأفراد لمراعاة خصوصية هذه المجتمعات وعدم إصابتهم بالإحباط نتيجة الاستغناء عنهم.
- تأمين استخدامات تقنيات الذكاء الاصطناعي ووضع قوانين ومعايير وشروط لتلافي الآثار السلبية التي قد تقع على الإنسان وحقوقه جراء هذه الاستخدامات.
- الحماية الاجتماعية من خلال توفير شبكات للحماية والإعلان عنها لتعويض المواطنين الذين قد يتضررون في وظائفهم جراء الاعتماد على تقنيات الذكاء الاصطناعي.
- المكون التوعوي من خلال عقد العديد من الحملات التوعوية المستمرة التي تبث عبر الوسائط المختلفة، لتوضيح طبيعة التعامل مع تقنيات الذكاء الاصطناعي وتبسيطها للمواطنين.
- المكون التدريبي وشموله العديد من القطاعات والأفراد العاملين بها على سبل استخدام تقنيات هذه التكنولوجيا واستمرار الدعم للمهارات التكنولوجية الجديدة.
- وضع القواعد الأخلاقية والقانونية
لتفادي التداعيات المختلفة التي ظهرت جراء استخدامات الذكاء الاصطناعي والروبوتات في الدول المتقدمة على الإنسان، علينا في المجتمعات العربية مراعاة خصوصية الإنسان وحقوقه عند الدخول في عالم الذكاء الاصطناعي لتجنب تلك الأضرار بشكل مسبق، وتنظيم وضبط القواعد والمعايير الأخلاقية والقانونية في هذه المجتمعات، وذلك من خلال الحرص على تضمين القواعد التالية في إطار أخلاقي وقانوني:
- تأمين الشفافية والمراقبة في التعامل مع بيانات الأفراد لحمايتهم من خطر التلاعب بهذه البيانات في المستقبل وحماية حقهم في الخصوصية وعدم انتهاكها.
- تمكين الأفراد من الحصول على سجلات بياناتهم الشخصية أو حذفها والتحكم بها حتى لا تترك بلا رقابة.
- حظر استخدام تطبيقات الذكاء الاصطناعي في عمليات المراقبة الجماعية التي تستخدم على نطاق واسع، وتنتهك حقوق الإنسان والحريات الأساسية.
- وجوب اقتصار تحمل المسؤولية النهائية والخضوع إلى المساءلة على البشر وعدم منح تقنيات الذكاء الاصطناعي بحد ذاتها الشخصية المعنوية.
- وضع معايير لاستخدام تقنيات الذكاء الاصطناعي في المجالات المهنية والصناعية والطبية والتعليمية والصحفية والإعلامية، وتدريب العاملين بهذه القطاعات على هذه المعايير لعدم مخالفتها.
- الاستمرار في تعزيز دور الذكاء الاصطناعي في النهوض بحقوق الإنسان وخاصة في المجالات الصحية والتعليمية وهي الحقوق التي تمس الفرد بشكل أساسي.
- سن قواعد قانونية حديثة تحمي براءات الاختراع في ميدان الذكاء الاصطناعي دون التأثير سلبا على حقوق الأفراد.
- حظر استخدام الأسلحة ذاتية التشغيل بسبب قدرتها الفائقة على القتل والتدمير للبشر دون تمييز.
- تعديل التشريعات الإعلامية بما يتفق مع استخدام تقنيات الذكاء الاصطناعي وخاصة تقنية صحافة الروبوت والمذيع الروبوت، وتحديد المسؤولية في حالة خرق القوانين والقواعد الإعلامية أو عدم مراعاة ميثاق الشرف الإعلامي.
- وضع القواعد والمعايير الأخلاقية التي تضع حدودا للبيانات والمعلومات التي يتم إدخالها للروبوت وحواسب الذكاء الاصطناعي ووضع عقوبات عند اختراقها للحدود الأخلاقية أو العادات والتقاليد للمجتمع العربي.
وتأسيسًا على ما سبق، يمكن القول بأن المخاطر المرتبطة بالتوسع في توظيف تقنيات الذكاء الاصطناعي في شتى المجالات تستلزم تحركا جماعيا دوليا واعيا ومسؤولا لوضع ضوابط وأطر تنظيمية لاستخدام تلك التقنيات حتى تعود بالنفع على الإنسان، لا سيما أن بعض الخبراء حذروا من أن تهديدها للإنسان لا يقل خطورة عن السلاح النووي، وقد بدأت بعض الخطوات والتحركات الفعلية منها تصديق البرلمان الأوروبي على قانون لتنظيم استخدام الذكاء الاصطناعي، بجانب خطط بريطانية لإنشاء هيئة رقابية عالمية معنية بالذكاء الاصطناعي على غرار منظمات عالمية مثل الوكالة الدولية للطاقة الذرية.