انتشرت في السنوات الأخيرة القصص الإخبارية الكاذبة، مما أدى إلى إثارة الارتباك والشك بشأن السياسة والأحداث العالمية، وتأجيج الاضطرابات الاجتماعية، بدرجة تدفع إلى تغيير إدراك الأفراد وتصوراتهم للواقع، وبالتالي التأثير على تصرفاتهم سواء فيما يتعلق بطبيعة الانخراط في المجال العام، أو خياراتهم في المجال الخاص، لا سيما تفضيل سلع ومنتجات عن غيرها.
وعلى الرغم من الجهود التي تبذلها الشركات المالكة لمواقع التواصل الاجتماعي، مثل تويتر وفيسبوك لوقف انتشار الأخبار الكاذبة، فإن الطوفان الرهيب من تلك الأخبار يستمر في الانتشار عبر عدد لا يُحصى من المنصات الأخرى.
ويُعدُّ اكتشاف القصص الإخبارية الزائفة عملًا صعبًا ومعقَّدًا للغاية، حيث لا توجد طريقة تُمكِّن مدققي الحقائق من البشر؛ لمواكبة هذا الكم الهائل من القصص عبر الإنترنت، وهنا يبرز دور تقنيات الذكاء الاصطناعي التي تُسهِّل كثيرًا من تلك العملية، وتُمكِّن من الحصول على البيانات الضخمة.
الذكاءُ الاصطناعيُّ غربالُ المعلومات في الفضاء الرقمي
ووفقًا لمجلة “فوربس” الأمريكية، يموجُ الأفراد في بحر من المعلومات يوميًّا، ففي كل دقيقة هناك 98 ألف تغريدة على موقع تويتر، و160 مليون رسالة بريد إلكتروني، و600 مقطع فيديو يتم تحميلها على موقع يوتيوب.
كما يقوم الساسة والمسوّقون ومنافذ الأخبار بالإضافة إلى عدد لا يُحصى من الأفراد بنشر آرائهم، ويُسهِّل من ذلك عملية النشر الذاتي على المنصات، وفي ظل هذا المشهد يتوق الأشخاص إلى طريقة لفرز المعلومات من أجل العثور على المعلومات القيمة التي يمكنهم استخدامها في حياتهم الخاصة.
وبرز الذكاء الاصطناعي كمحور لجهود العديد من الجهات البحثية والأكاديمية والشركات الناشئة في مجال التكنولوجيا، من أجل مكافحة الأخبار الزائفة.
وفي هذا الإطار، طوَّر باحثون بجامعة كولومبيا البريطانية، طريقةً جديدةً لتدريب أجهزة الكمبيوتر على القيام بمكافحة الأخبار الزائفة، باستخدام تقارير إعلامية باللغة العربية.
واعتبر المشروع البحثي أن أنظمة الذكاء الاصطناعي هي الأكثر دقةً عندما يكون لديها الكثير من الكلمات التي يمكن “التعلم منها”، وقام الفريق البحثي باستخدام نموذج تعَلُّم يُسمى “Generative Pre-trained Transformer 3 model “، يُمكنه محاكاة النص الذي تم إنشاؤه بواسطة الإنسان، باستخدام 499 مليار كلمة.
وكانت المشكلة الرئيسية التي واجهتها الدراسة هي عدم وجود هذا الكم من البيانات عندما يتعلق الأمر بالأخبار الزائفة، وللتغلب على تلك المشكلة قام الباحثون بجمع ملايين الأخبار من وسائل الإعلام العربية باعتبار أنها مقالات إخبارية حقيقية، ثم قاموا بالتلاعب بتلك المقالات عن طريق تعديلها عبر مجموعة من الخطوات المتدرجة، أولها تطبيق “تقنيات تمييز الكلام- speech tagging techniques” لتحديد أجزاء الجمل مثل الأسماء والأفعال والصفات، ثم استخدام “نموذج تضمين كلمة- a word embedding model”، لاستبدال الكلمة بواسطة أخرى مماثلة، فعلى سبيل المثال يمكن استبدال اسم فريق كرة قدم مشهور بواسطة اسم فريق آخر، أو رقم يمكن استبداله بواسطة رقم مختلف، وهكذا تم التلاعب بالجمل، وبالتالي إنشاء مجموعة بيانات إخبارية زائفة.
وبتلك الطريقة أصبح لدى الفريق البحثي مجموعة ضخمة من البيانات تحتوي على مقالات إخبارية حقيقية، بالإضافة إلى مقالات إخبارية زائفة تم إنشاؤها بشكل مصطنع.
وطلب الباحثون من نظام الذكاء الاصطناعي الخاص بهم تحليل 3072 قصة حقيقية و1475 قصة زائفة، وقد تمكَّن النظام من الفصل بين الحقيقي، والزائف دون أي جهد بشري.
التوقيتُ عاملٌ حاسمٌ في توظيف الذكاء الاصطناعي لمكافحة الأخبار الزائفة
كما ركَّزت جهود بحثية أخرى على عنصر التوقيت في استخدام تقنيات الذكاء الاصطناعي لمكافحة الأخبار المُضلِّلة، حيث أظهرت دراسة لمعهد رينسيلار للفنون التطبيقية- Rensselaer Polytechnic” في نيويورك أن الذكاء الاصطناعي يُمكن أن يُساعد في تكوين تقييمات دقيقة للأخبار، ولكن فقط عندما تظهر القصة الإخبارية لأول مرة.
وشملت تلك الدراسة ما يقرب من 800 مشارك في أواخر عام 2019، وقد أتاح ظهور وباء كورونا في هذا الوقت فرصةً للباحثين لجمع البيانات مباشرة حول حدث إخباري كبير ناشئ.
وخلُص الباحثون في نتائج الدراسة التي نشرت في دورية”Computers in Human Behavior Reports” العلمية إلى أن التدخلات التي يحركها الذكاء الاصطناعي غير فعّالة بشكل عام عند استخدامها للإبلاغ عن مشكلات بشأن قصص إخبارية تتناول موضوعات يتم تغطيتها بشكل متكرر، حيث يكون الجمهور قد كوَّن معتقدات بشأنها، مثل تغيُّر المناخ واللقاحات.
وفي المقابل، عندما يكون الموضوع جديدًا لا يكون أمام الأفراد وقت لتكوين رأي، وهنا يُمكن أن تقود النصائح المُصمَّمة من خلال الذكاء الاصطناعي الجمهور إلى إصدار أحكام أفضل فيما يتعلق بشرعية المقالات الإخبارية.
ووفقًا للدراسة يكون التوجيه أكثر فاعلية عندما يُوفِّر أسبابًا تتماشى مع عملية التفكير الطبيعي للشخص، مثل تقييم دقة الحقائق المُقدَّمة أو موثوقية مصدر الأخبار.
وتُشير الدكتورة دوريت نيفو، المشاركة في الدراسة إلى أن بناء أداة جيدة تُحدد بدقة ما إذا كانت القصة الإخبارية زائفة لا يُعتبر خطوةً كافيةً، ولكن يجب أيضًا أن يصدِّق الأشخاص الشرح وكذلك النصيحة التي يقدمها لهم الذكاء الاصطناعي.
وتعتقد نيفو بأنه إذا كان بالإمكان الوصول إلى الأشخاص في وقت مبكر عندما تنفجر القصة، وإيضاح الذكاء الاصطناعي للأسباب التي يستند إليها ليصدر الحكم، فمن المرجح أن يقبلوا النصيحة.
ويعني ذلك أن إيقاف طوفان الأخبار الكاذبة، يكون من خلال البدء الفوري بتوجيه رسائل منطقية مباشرة، دون انتظار تشكيل الآراء.
إطلالةٌ على تجارب الشركات التقنية الناشئة لاستخدام الذكاء الاصطناعي
من جهة أخرى، دخل العديد من الشركات الناشئة المتخصصة في التقنية على حلبة المنافسة فيما يتعلق بمكافحة الأخبار الزائفة، وتنطلق تلك الشركات من مبدأ التكامل بين دور الذكاء الاصطناعي، والدور البشري في تلك العملية.
ففي حين أن الذكاء الاصطناعي قادر على تحليل الكميات الهائلة من المعلومات التي يتم إنشاؤها يوميًّا على نطاق يستحيل بالنسبة للبشر تتبعه، لكن لا بد أن يكون البشر في النهاية جزءًا من عملية التحقق من المعلومات الصحيحة؛ لضمان المصداقية.
وتُشكِّل تجربة شركة Logically للحلول التقنية الناشئة في المملكة المتحدة نموذجًا لتلك الجهود، إذ طوَّرت حلًّا يجمع بين الذكاء الاصطناعي والبشري للتحقق من صحة الأخبار والمناقشة الاجتماعية والصور، وذلك من خلال تطبيق مجاني يُمكن تحميله من متجر أبل أو جوجل بلاي، حيث يمكن للقراء التحقق من المحتوى.
وتمتلك الشركة أيضًا امتدادًا يعمل على متصفح جوجل كروم، يتعامل مع أكثر من 160 ألف منصة اجتماعية وموقع إخباري للتحقق من صحة الأخبار.
ويستخدم ذلك البرنامج اللغة الطبيعية لفهم وتحليل النص، حيث تصنف نماذج الذكاء الاصطناعي مصداقية مصدر المحتوى بثلاثة مستويات منخفض ومتوسط وعالٍ، أما المقالة فتصنَّف موثوقة أو غير موثوقة، بناءً على مقارنات لمحتوى مشابه من أكثر من 100 ألف مصدر، فضلًا عن أن خوارزميات البرنامج لا تقوم بفحص المحتوى فحسب، ولكن تفحص البيانات الوصفية والصور أيضًا.
وقد تمكَّن البرنامج خلال الحملة الانتخابية الأخيرة في الهند، من تحليل أكثر من مليون مقال، ووجد بينهم 50 ألف مقال يتضمن أخباراً زائفة.
وفي السياق ذاته، تعمل شركة “Full Fact” وهي عبارة عن فريق من مدققي الحقائق المستقلين على بناء أدوات آلية للتحقق من الأخبار، حيث تقوم الشركة بجمع البيانات ومراقبتها وتصنيفها، وغالبًا ما تجري عملية التحقق دون اتصال مع البشر.
كما تندرج جهود شركة “AdVerif.ai” تحت نفس الإطار، إذ تعمل على توظيف الذكاء الاصطناعي؛ لحماية المستخدمين من المحتوى غير اللائق والخداع والبريد العشوائي والأخبار الزائفة.
وتساعد خوارزميات “FakeRank” الخاصة بالشركة المعلنين والناشرين وشبكات الإعلانات على تعديل المحتوى، وضمان حماية المستخدمين، والحفاظ على سلامة سمعة العلامات التجارية.
وتأسيسًا على ما سبق، يتضح أن الأخبار الزائفة تنتقل أسرع من الحقيقة، لذلك يحتاج العالَم بشدة إلى طريقة لتمييز الحقيقة من الخداع في الأخبار والمناقشات العامة والسياسية والاقتصادية، وهنا يبرز الدور الذي يلعبه الذكاء الاصطناعي.
ويتطلب التوظيف الناجح لتقنيات الذكاء الاصطناعي مراعاة الاشتباك مع الحدث موضع التدقيق في توقيت زمني مبكر، وكذلك تضمين العنصر البشري في عملية التحقق من الأخبار، فالتكامل بين الذكاء الاصطناعي والجهد البشري عاملان لا يغني أحدهما عن الآخر في إطار أي جهد لمكافحة التضليل.