تعتبر المنشورات عالية التفاعل، المُولّدة بالذكاء الاصطناعي، على منصة ريديت مثالاً على ما يُعرف بـ”المحتوى منخفض الجودة المولد بالذكاء الاصطناعي” وهو محتوى رخيص ومنخفض الجودة، يُنتجه ويشاركه أي شخص بدءًا من صغار المؤثرين وصولًا إلى عمليات التأثير السياسي المُنسّقة.
وبحسب مجلة “wired” الأمريكية المتخصصة في التكنولوجيا وتأثيراتها على المجتمع، تشير تقديرات إلى أن أكثر من نصف المنشورات الطويلة باللغة الإنجليزية على تطبيق لينكدإن تُكتب بواسطة الذكاء الاصطناعي، مما دفع آدم ووكيويتز، مدير المنتجات في لينكدإن إلى تأكيد امتلاك التطبيق القدرة على اكتشاف مثل هذا المحتوى واتخاذ إجراءات لضمان عدم الترويج له على نطاق واسع.
لكن في المقابل، فإن المواقع الإخبارية التي تنشر محتوى منخفض الجودة مُولّداً بالذكاء الاصطناعي تظهر في كل مكان، كما أن صور الذكاء الاصطناعي تغمر منصات التواصل الاجتماعي مثل فيسبوك، ويساعد في ذلك كون هذا النوع من المحتوى المُولّد بالذكاء الاصطناعي رخيصاً.
فقد أظهر تقرير صادر عن مركز التميز للاتصالات الاستراتيجية التابع لحلف شمال الأطلسي “الناتو” إمكانية شراء عشرات الآلاف من المشاهدات والإعجابات المزيفة، ومئات التعليقات المُولّدة بالذكاء الاصطناعي على جميع منصات التواصل الاجتماعي الرئيسية تقريبًا مقابل 10 يوروهات فقط.
وفي هذا الإطار، نشر موقع “ذا كونفرزيشن” الأمريكي مقالًا مشتركًا لكل من ساندر فان دير ليندن أستاذ علم النفس الاجتماعي بجامعة كامبريدج وجون روزينبيك أستاذ مساعد في علم النفس والأمن، كلية كينجز بلندن ويارا كيريتشنكو طالبة الدكتوراه في مختبر كامبريدج لاتخاذ القرارات الاجتماعية، نستعرضه على النحو التالي:
- حركة الروبوتات الخبيثة على الإنترنت
في حين أن الكثير من المحتوى المُولّد بالذكاء الاصطناعي يبدو ترفيهًا بريئًا، فقد وجدت دراسة أجرتها شركة”Barracuda” للأمن السيبراني العام الماضي أن حوالي ربع حركة الإنترنت تتكون من “روبوتات خبيثة” تسعى لنشر معلومات مضللة أو بيع تذاكر الفعاليات أو سرقة البيانات الشخصية، وهذه الروبوتات أصبحت أكثر براعة في انتحال شخصيات البشر.
باختصار، يواجه العالم تدهورًا تدريجيًا في خدمات الإنترنت مع مرور الوقت، حيث تُعطي شركات التكنولوجيا الأولوية للأرباح على تجربة المستخدم. والمحتوى المُولّد بالذكاء الاصطناعي ليس سوى جانب واحد من هذا المشهد؛ فهذا المحتوى جذاب للغاية، وبالتالي رابح لكل من مُنشئي المحتوى غير المُلائم والمنصات. ويُعرف هذا باسم “إغراء التفاعل”، وهو أسلوب لجذب الناس للإعجاب والتعليق والمشاركة، بغض النظر عن جودة المنشور، ودون الحاجة إلى البحث عن المحتوى للاطلاع عليه.
وقد استكشفت إحدى الدراسات كيفية توصية مستخدمي منصات التواصل الاجتماعي بمحتوى مُغرٍ للتفاعل فحتى مع عدم متابعتهم لأي صفحات أو حسابات مُضلّلة تعتمد على الذكاء الاصطناعي، فقد تكون هذه الصفحات، التي غالبًا ما ترتبط بمصادر رديئة الجودة وتروج لمنتجات حقيقية أو مُصنّعة، مُصممة لزيادة قاعدة متابعيها بهدف بيع حساباتهم لاحقًا لتحقيق الربح.
- عواقب وخيمة على التواصل السياسي
قد يكون لكل هذا عواقب وخيمة على الديمقراطية والتواصل السياسي، إذ يمكن للذكاء الاصطناعي، بتكلفة زهيدة وكفاءة عالية، أن يُنتج معلومات مضللة حول الانتخابات، لا يمكن تمييزها عن المحتوى الذي ينتجه البشر.
فقبل الانتخابات الرئاسية الأمريكية لعام 2024، رصد باحثون حملة تأثير واسعة النطاق مُصممة للدفاع عن قضايا الجمهوريين ومهاجمة الخصوم السياسيين. وقبل أن تعتقد أن الجمهوريين وحدهم يفعلون ذلك، فكّر مرة أخرى فهذه الروبوتات مُتحيزة تمامًا مثل البشر لجميع وجهات النظر، حيث وجد تقرير صادر عن جامعة روتجرز أن الأمريكيين من جميع الأطياف السياسية يعتمدون على الروبوتات للترويج لمرشحيهم المُفضّلين.
كما أن الباحثين ليسوا أبرياء أيضًا، حيث تم ضبط علماء في جامعة زيورخ يستخدمون روبوتات تعمل بالذكاء الاصطناعي للنشر على ريديت، كجزء من مشروع بحثي حول ما إذا كانت التعليقات الزائفة قادرة على تغيير آراء الناس، لكنهم لم يُفصحوا لمشرفي المنصة عن أن هذه التعليقات مُزيفة.
وتبحث ريديت الآن اتخاذ إجراء قانوني ضد الجامعة، حيث صرح كبير المسؤولين القانونيين في المنصة بأن ما فعله فريق جامعة زيورخ خاطئ تمامًا على المستويين الأخلاقي والقانوني.
- صعوبة اكتشاف المحتوى الخبيث المُولد بالذكاء الاصطناعي
يعد اكتشاف المحتوى الخبيث المُولد بالذكاء الاصطناعي مسألة صعبة للغاية، سواءً من قبل البشر أو أجهزة الكمبيوتر. وقد حدّد علماء الحاسوب مؤخرًا شبكة من حوالي 1100 حساب مزيف على منصة إكس، تنشر محتوى مُولداً آليًا (معظمه حول العملات المشفرة)، وتتفاعل مع بعضها البعض من خلال الإعجابات وإعادة التغريد. لكنّ أداة “Botometer” (وهي أداةٌ طوّروها للكشف عن الروبوتات) لم تصنف هذه الحسابات على أنها مزيفة.
وتجدر الإشارة إلى أنه يسهل اكتشاف استخدام الذكاء الاصطناعي نسبيًا إذا كنت تعرف ما تبحث عنه، لكن الأمر يكون أصعب بكثير عندما يتعلق بالمحتوى المُختصر مثل تعليقات إنستغرام أو الصور المزيفة عالية الجودة. فضلًا عن أن التكنولوجيا المُستخدمة في إنتاج المحتوى المُولد بالذكاء الاصطناعي تشهد تطوّرًا سريعًا.
بصفتنا مراقبين عن كثب لاتجاهات الذكاء الاصطناعي وانتشار المعلومات المضللة، نود أن نختتم هذا المقال بملاحظة إيجابية ونقدم حلولًا عملية لرصد المحتوى منخفض الجودة المولد بالذكاء الاصطناعي أو الحد من فاعليته. ولكن في الواقع، كثير من الناس يقفزون من السفينة ببساطة.
بسبب عدم رضاهم عن كثرة أخطاء الذكاء الاصطناعي، يلجأ مستخدمو منصات التواصل الاجتماعي إلى التخلي عن المنصات التقليدية والانضمام إلى مجتمعات إلكترونية متاحة بدعوة خاصة. قد يؤدي هذا إلى مزيد من تفتيت مجالنا العام وتفاقم الاستقطاب، فالمجتمعات التي نبحث عنها غالبًا ما تتكون من أفراد متشابهين في التفكير.
مع تفاقم هذا التصنيف، تُخاطر وسائل التواصل الاجتماعي بالتحول إلى ترفيهٍ بلا هدف، تُنتجه وتستهلكه في الغالب روبوتات تتفاعل مع بعضها البعض بينما نحن البشر نشاهد. بالطبع، لا ترغب المنصات في خسارة مستخدميها، وتشمل بعض الحلول التقنية المحتملة تصنيف المحتوى الذي يُنتجه الذكاء الاصطناعي من خلال تحسين أنظمة الكشف عن الروبوتات والإفصاح عنها، وتُظهر بعض الأبحاث أيضًا نتائج واعدة في مساعدة الأشخاص على تمييز التزييف العميق بشكل أفضل، لكن البحث لا يزال في مراحله الأولى.
بشكل عام، بدأنا للتو ندرك حجم المشكلة. ومن المثير للقلق أنه إذا غرق البشر في فوضى الذكاء الاصطناعي، فسيغرق الذكاء الاصطناعي أيضًا فمن المرجح أن تُنتج نماذج الذكاء الاصطناعي المُدربة على الإنترنت “المُشوّه” بيانات غير صحيحة.