مع ارتفاع معدلات استخدام منصات التواصل الاجتماعي خلال العقد الأخير، باتت هذه المنصات ساحة لترويج المعلومات المغلوطة والشائعات والأخبار الكاذبة، الأمر الذي استلزم تحركًا من جانب الشركات المالكة لها والتي بادرت بتأسيس إدارات تتولى مهمة الإشراف على المحتوى، ورصد التجاوزات التي تنتهك إرشادات الاستخدام كالحض على العنف أو العنصرية؛ ولم يكن بإمكان هذه الأقسام مهما بلغت قوتها البشرية من متابعة هذا الكم الهائل من المحتوى الذي يتدفق كل لحظة عبر التطبيقات، ما أدى إلى الاستعانة بأنظمة الذكاء الاصطناعي.
وفي هذا الإطار، كشفت دراسة جديدة نشرتها مجلة “الاتصالات الحاسوبية” في عدد يوليو 2022، بعنوان “إشراف الذكاء الاصطناعي على المحتوى عبر الإنترنت: آثار التعاون البشري والشفافية التفاعلية على ثقة المستخدم”، أن مستخدمي وسائل التواصل الاجتماعي قد يثقون في الذكاء الاصطناعي تمامًا مثل المحررين من البشر في الإبلاغ عن خطاب الكراهية والمحتوى الضار.
وأوضحت الدراسة أن المستخدمين يفكرون في السمات الإيجابية للآلات، معتبرة أن ذلك قد يساعد المطورين على تصميم أنظمة تنظيم محتوى أفضل مدعومة بالذكاء الاصطناعي، بحيث يمكنها التعامل مع الكميات الكبيرة من المعلومات التي يتم إنشاؤها مع تجنب التصور بأن المواد قد خضعت للرقابة أو تم تصنيفها بشكل غير دقيق.
- مزايا وعيوب الإشراف البشري والآلي على المحتوى
وتشير الدراسة إلى وجود حاجة ماسة إلى الإشراف على المحتوى في وسائل التواصل الاجتماعي وبشكل عام وسائل الإعلام عبر الإنترنت، ففي حين يعمل محررو الأخبار كحراس بوابة في وسائل الإعلام التقليدية، فإن بوابات الإنترنت مفتوحة على مصراعيها، وليس من المجدي ممارسة البشر لتلك المهمة خاصة مع حجم المعلومات الهائل الذي يتم إنشاؤه.
ولذلك مع توجه الصناعة بشكل متزايد نحو الحلول الآلية، تبحث هذه الدراسة في الفرق بين استجابة المستخدمين للمشرفين على المحتوى من البشر والأنظمة الآلية، علما بأن لكل منهما مزايا وعيوبًا.
فوفقًا لماريا دي مولينا، الأستاذ المساعد في الإعلان والعلاقات العامة بكلية فنون وعلوم الاتصال جامعة ولاية ميشيغان، والمؤلف الرئيسي للدراسة، يميل البشر إلى تقييم ما إذا كان المحتوى ضارًا بشكل أكثر دقة، على سبيل المثال عندما يكون عنصريًا أو يحتمل أن يؤدي إلى إيذاء النفس، لكنهم لا يستطيعون معالجة الكميات الكبيرة من المحتوى الذي يتم إنشاؤه ومشاركته عبر الإنترنت.
من ناحية أخرى، بينما يمكن لمحرري الذكاء الاصطناعي تحليل المحتوى بسرعة، غالبًا لا يثق المستخدمون في قدرة هذه الخوارزميات على تقديم توصيات دقيقة، فضلاً عن الخوف من إمكانية فرض الرقابة على المعلومات وحرية التعبير.
- الشفافية التفاعلية وتعزيز ثقة مستخدمي منصات التواصل
وبحسب الدراسة، قد يكون الجمع بين الأشخاص والذكاء الاصطناعي في عملية الإشراف على المحتوى إحدى الطرق لبناء نظام إدارة موثوق به، وهنا تكون الشفافية – أو إبلاغ للمستخدمين بأن الآلات تشارك في الإشراف- أحد الأساليب لتحسين الثقة في الذكاء الاصطناعي.
بل إن السماح للمستخدمين بتقديم اقتراحات للذكاء الاصطناعي، والذي يشير إليه الباحثون باسم “الشفافية التفاعلية”، يعزز ثقة المستخدمين بشكل أكبر، لذلك قام الباحثون بتجنيد 676 مستخدمًا للتفاعل مع نظام تصنيف المحتوى واختبار كيف يمكن لمصدر الإشراف على المحتوى – الذكاء الاصطناعي أو البشري أو كليهما – أن يُؤثر على ثقة المشارك في قدرة المصدر على رصد المحتوى الإشكالي.
وقد اختبر الباحثون قرارات تصنيف للمحتوى لكونه ضارًا أو بغيضًا، حيث تناول المحتوى التفكير في الانتحار والحض على الكراهية.
ووجد الباحثون أن ثقة المستخدمين تعتمد على ما إذا كان مشرف المحتوى القائم على الذكاء الاصطناعي يستدعي سمات إيجابية للآلات مثل دقتها وموضوعيتها، أو سمات سلبية مثل عدم قدرتهم على إصدار أحكام ذاتية حول الفروق الدقيقة للدلالات اللغوية.
ورأى الباحثون أن منح المستخدمين فرصة لمساعدة نظام الذكاء الاصطناعي في تحديد ما إذا كانت المعلومات عبر الإنترنت ضارة أم لا قد تعزز ثقتهم أيضًا، فالمشاركون في الدراسة الذين أضافوا مصطلحاتهم الخاصة إلى قائمة كلمات يستخدمها الذكاء الاصطناعي لتصنيف المنشورات يثقون في محرر الذكاء الاصطناعي تمامًا كما يثقون بالمحرر البشري.
- الحاجة الأخلاقية للإشراف الآلي
ونوهت الدراسة أن المحررين البشريين يتعرضون لصور ومحتوى عنيف ويحض على الكراهية لساعات طويلة، وبالتالي توجد حاجة أخلاقية للإشراف الآلي للمحتوى، وذلك لحماية مشرفي المحتوى من التعرض المستمر للمحتوى الضار.
وخلصت إلى أن “الشفافية التفاعلية” قد تكون جزءًا أساسيًا من فهم الذكاء الاصطناعي، من منطلق أن الشيء المهم ليس الثقة في الأنظمة الآلية فحسب، بل أيضًا إشراك الأشخاص بطريقة يفهمونها في عمليات الذكاء الاصطناعي، مشيرة إلى أن التساؤلات حول كيفية استخدام مفهوم الشفافية التفاعلية والطرق الأخرى لمساعدة المستخدمين على فهم الذكاء الاصطناعي بشكل أفضل، وتحقيق التوازن بين الثقة في قدرة الآلة والتشكيك في نقاط ضعفها، هي تساؤلات جديرة بالبحث.
وتأسيسًا على ما سبق، يمكن القول بأن انتشار المحتوى الإشكالي الذي ينشئه المستخدمون على وسائل التواصل الاجتماعي، يجعل استخدام أدوات الذكاء الاصطناعي للتحكم في المحتوى أمرًا مهمًا، إن لم يكن حتميًا.
ويزداد قبول المستخدمين للذكاء الاصطناعي كمشرف على المحتوى مع تمكينهم من تقديم مدخلات لمعايير تصنيف المحتوى، وهو ما يتطلب ابتكارات في تصميم أنظمة التصنيف لإشراك المستخدمين.