سواء كان الأمر يتعلق بالحصول على نصائح حول الطهي أو حتى المساعدة في إلقاء خطاب، فإن روبوت الدردشة ChatGPT”” شكّل أول فرصة لكثير من الأشخاص لاستخدام نظام الذكاء الاصطناعي، إذ إنه يستند إلى تقنية معالجة لغة متقدمة، طورتها شركة “Open AI” الأمريكية عبر تدريب الذكاء الاصطناعي باستخدام قواعد البيانات النصية من الإنترنت، بما في ذلك الكتب والمجلات ومحتوى ويكيبيديا، فضلًا عن إدخال 300 مليار كلمة في النظام، وكانت النتيجة النهائية هي روبوت محادثة يمكن أن يبدو بشريًا بشكل مخيف، ولكن بمعرفة موسوعية.
ولهذا يحذر الأكاديميون والباحثون في مجال الأمن السيبراني وخبراء الذكاء الاصطناعي من إمكانية استخدام “ChatGPT” من قبل جهات فاعلة سيئة لبث الخلافات ونشر الدعاية المغرضة على وسائل التواصل الاجتماعي، وفقًا لهيئة الإذاعة البريطانية “بي.بي.سي”.
- تسهيل مهمة “جيوش المتصيدين”
فبينما يتطلب نشر المعلومات الخاطئة حتى الآن جهدًا بشريًا كبيرًا، فإن الذكاء الاصطناعي مثل روبوت الدردشة “ChatGPT” سيجعل من السهل جدًا على ما يسمى بـ”جيوش المتصيدين- troll armies” أو الجيوش الإلكترونية توسيع نطاق عملياتهم، وفقًا لتقرير صادر عن جامعة جورج تاون ومرصد ستانفورد للإنترنت وشركة “Open AI” الأمريكية.
ويمكن أن تؤثر أنظمة معالجة اللغة المتطورة مثل ChatGPT”” على عمليات التأثير على وسائل التواصل الاجتماعي، حيث تسعى مثل هذه الحملات إلى صرف الانتباه عن النقد وإلقاء نظرة إيجابية على حكومة أو حزب ما، ويمكنها أيضًا الدفاع عن السياسات أو مناهضتها.
كما قد تتيح استخدام حسابات مزيفة أيضًا لنشر معلومات مضللة على وسائل التواصل الاجتماعي. وقد تم إطلاق إحدى هذه الحملات في الفترة التي سبقت الانتخابات الرئاسية الأمريكية عام 2016، حيث خلصت لجنة الاستخبارات بمجلس الشيوخ الأمريكي في عام 2019 إلى وجود الآلاف من الحسابات على تويتر وفيسبوك وإنستغرام ويوتيوب التي أنشأتها وكالة أبحاث الإنترنت ومقرها سانت بطرسبرغ، إذ ركزت على الإضرار بحملة هيلاري كلينتون ودعم دونالد ترامب، لكن الانتخابات المستقبلية قد تضطر إلى التعامل مع طوفان كبير من المعلومات المضللة.
وبحسب تقرير لمنظمة العفو الدولية صدر الشهر الماضي، فإن إمكانات النماذج اللغوية لمنافسة المحتوى المكتوب بشريًا بتكلفة منخفضة تشير إلى أن هذه النماذج مثل أي تقنية قوية قد توفر مزايا لمروجي الدعاية المغرضة الذين يختارون استخدامها.
ويحذر التقرير من أن هذه المزايا يمكن أن توسع الوصول إلى عدد أكبر من الجهات الفاعلة، وتمكن من تكتيكات جديدة للتأثير، وتجعل رسائل حملات الدعاية المغرضة أكثر تفصيلاً وفاعلية”، بمعنى أنه ليس فقط كمية المعلومات المضللة هي التي يمكن أن تزداد، بل الجودة أيضًا.
- تحسين جودة إقناع المحتوى الزائف
ويقول جوش جولدشتاين، زميل الأبحاث في مركز جورج تاون للأمن والتكنولوجيا الناشئة، إن أنظمة الذكاء الاصطناعي يمكنها تحسين جودة إقناع المحتوى الزائف، وتجعل من الصعب على مستخدمي الإنترنت العاديين التعرف عليها كجزء من حملات التضليل المنسقة.
ويوضح أن نماذج اللغة التوليدية قد تولد قدرًا كبيرًا من المحتوى الأصلي في كل مرة، وتسمح لمحتوى الدعاية المغرضة بعدم الاعتماد على نسخ ولصق نفس النص عبر حسابات وسائل التواصل الاجتماعي أو المواقع الإخبارية، كما يشير إلى أنه إذا غمرت المنصة بمعلومات أو دعاية غير صحيحة، سيصعب على الجمهور تمييز ما هو صحيح.
من جهة أخرى، فإن الوصول إلى هذه الأنظمة قد لا يظل مجالًا لعدد قليل من المنظمات، فصحيح أنه في الوقت الحالي، يمتلك عدد صغير من الشركات أو الحكومات نماذج لغوية من الدرجة الأولى، وهي محدودة في المهام التي يمكن أن تؤديها بشكل موثوق وباللغات التي تنتجها، لكن إذا استثمر عدد أكبر من الجهات الفاعلة في النماذج التوليدية الحديثة، فقد يؤدي ذلك إلى زيادة احتمالات وصول مروجي الدعاية المغرضة إليها.
ويقول جاري ماركوس، الخبير المتخصص في الذكاء الاصطناعي إن ناشري البريد العشوائي في جميع أنحاء العالم يعتمدون على الأشخاص الأكثر سذاجة للنقر على روابطهم، ولكن مع الذكاء الاصطناعي، يمكن أن يصبح وصولهم هو الأكبر على الإطلاق.
بالإضافة إلى ذلك، حتى لو قضت منصات مثل تويتر وفيسبوك على ثلاثة أرباع ما نشره هؤلاء الجناة على شبكاتهم، لا يزال هناك ما لا يقل عن 10 أضعاف المحتوى الذي كان من قبل يمكن أن يهدف إلى تضليل الناس عبر الإنترنت.
ويرى ماركوس، أن تزايد حسابات الوسائط الاجتماعية المزيفة أصبح “شوكة في خاصرة” كل من تويتر وفيسبوك، ولن يؤدي النضج السريع لأنظمة نماذج اللغة اليوم إلا إلى إيجاد مزيد من الملفات الشخصية الزائفة على تلك المنصات.
ويتفق فنسنت كونيتسر، أستاذ علوم الكمبيوتر في جامعة كارنيجي ميلون مع هذا الرأي، مؤكدا “يمكن لشيء مثل ChatGPT أن يوسع انتشار الحسابات المزيفة على مستوى لم نشهده من قبل، وقد يصبح من الصعب تمييز كل هذه الحسابات عن الحسابات البشرية الحقيقية”.
- إنشاء مقالات إخبارية مزيفة بسرعة
كما حذر تقرير مماثل من شركة “”WithSecure Intelligence للأمن السيبراني، من قدرة نماذج اللغة التوليدية على إنشاء مقالات إخبارية مزيفة بسرعة وكفاءة يمكن نشرها عبر وسائل التواصل الاجتماعي، مما يزيد من فيضان المعلومات الكاذبة والروايات التي يمكن أن تؤثر على الناخبين قبل انتخابات حاسمة.
ويثير هذا الوضع تساؤلاً مفاده إلى أي مدى يجب أن تكون منصات وسائل التواصل الاجتماعي استباقية قدر الإمكان؟ وهنا يعتقد بعض الخبراء أنه سيكون هناك تراخ في فرض أي قيود على هذه الأنواع من المنشورات.
ويرى لويس نونيس أمارال، المدير المشارك لمعهد نورث وسترن للأنظمة المعقدة أنه يجب على فيسبوك والمنصات الأخرى الإبلاغ عن المحتوى الزائف، لكن فيسبوك فشل في هذا الاختبار بشكل مذهل، مرجعاً أسباب هذا التقاعس في تكاليف مراقبة كل منشور على حدة، وإدراك أيضًا أن هذه المنشورات المزيفة تهدف إلى إثارة غضب الأفراد وتقسيمهم، مما يؤدي إلى زيادة التفاعل. وهو أمر مفيد لفيسبوك”.