ترجمات

هل يمثل التزييف العميق تهديدًا وخطرًا جديًا؟

أطلق رئيس جهاز المخابرات الداخلية البريطاني “إم آي 5″، كين ماكالوم مؤخرًا صيحة تحذير من خطر يلوح في الأفق، خلال مؤتمر في  ولاية كاليفورنيا الأمريكية، قائلًا إن “التزييف العميق-Deepfakes” يشكل تهديدًا للديمقراطية مع إمكانية التسبب في كل أنواع الارتباك والشقاق والفوضى في المجتمع.

وقد كانت تقنية “التزييف العميق” وهي محتوى سمعي ومرئي مقلد يتم إنتاجه عبر تقنيات “التعلم العميق-Deep learning”، على رادار منظمات مراقبة وسائل الإعلام منذ سنوات، إذ لا يوجد أدنى شك في أنها يمكن أن تكون مقنعة، ففي عام 2017، شارك باحث من جامعة واشنطن مقطع فيديو اصطناعيًا للرئيس الأمريكي السابق باراك أوباما يدلي بعبارات بذيئة، مما دفع خبراء التكنولوجيا إلى التحذير من أزمة وشيكة إذا تُرك الذكاء الاصطناعي التوليدي دون رادع. ومنذ ذلك الحين، توالت التنبؤات حول إمكانات التزييف العميق وسرعات ما اختفت.

  • المتطلبات التكنولوجية الكبيرة للوصول إلى الإقناع

ويشير تقرير نشرته مؤسسة راند البحثية إلى أن التكنولوجيا التي تقوم عليها عملية التزييف العميق تطورت بسرعة، وأصبح الذكاء الاصطناعي التوليدي متاحًا للعامة بشكل أكبر بكثير، مع توفر مولدات الصور المتقدمة لأي شخص لديه عنوان بريد إلكتروني، ورغم أن هذه التكنولوجيا بدت جاهزة للاستخدام بشأن الحرب على غزة، لكن التزييفات العميقة المُقنعة كانت غائبة بشكل غريب، فالمعلومات المُضللة المنتشرة تمثلت في الصور والقصص ومقاطع الفيديو المقتطعة من سياقها.

فعلى سبيل المثال، أظهر أحد مقاطع الفيديو لقطات تم التلاعب بها للزعيم الكوري الشمالي كيم جونغ أون وهو يتحدث في عام 2020 مع إضافة تعليقات كاذبة لجعله يوجه اللوم إلى الرئيس الأمريكي جو بايدن  بشأن الحرب في غزة. كما تم التلاعب بمقاطع فيديو أخرى، مثل مقطع فيديو تم تزييفه ليحاكي تقارير بي بي سي الإخبارية، حيث يدعي أن أوكرانيا كانت ترسل أسلحة إلى حركة حماس الفلسطينية.

وأرجع التقرير السبب في عدم الإقناع بتلك المقاطع المزيفة إلى التكنولوجيا بشكل جزئي، فقد أظهر الباحثون في مؤسسة راند أن مقاطع الفيديو ذات التزييف العميق تتطلب كميات هائلة من الموارد، حيث استغرق أحد مقاطع الفيديو الشهيرة للنجم توم كروز أشهرًا من التدريب، ووحدات معالجة الرسومات باهظة الثمن، وممثلًا ماهرًا لتقليد تصرفات كروز. وبالتالي في ظل كل هذا الجهد والتكلفة، غالبًا ما يكون من الأسهل على أولئك الذين ينشرون المعلومات المُضللة استخدام أشكال تقليدية من وسائل الإعلام.

  • قدرة البشر على كشف التزييف

وتجدر الإشارة هنا أيضًا إلى أنه حتى مع هذه الأشكال الأكثر تقدمًا من الذكاء الاصطناعي التوليدي، يتمتع البشر بمهارة ملحوظة في اكتشاف المنتجات المزيفة. ففي دراسة حديثة أجراها مختبر الوسائط التابع لمعهد ماساتشوستس للتكنولوجيا، قيّم النموذج الرائد لكشف التزييف العميق أن التزييف العميق المقنع لشخصية الرئيس الروسي فلاديمير بوتين لديه فرصة بنسبة 8% لأن يكون مصطنعًا مقابل 70% من العينة المشاركة في الدراسة. وكما يوضح الباحثون، فإن المشاركين يعتمدون على معلومات سياقية غير متاحة للنموذج، حيث يصدرون أحكامًا حول ما إذا كان بوتين سيتصرف ويتحدث حقًا كما يفعل في الفيديو، في حين أن  النموذج لا يفعل ذلك.

إن التركيز فقط على قدرة التزييف العميق على خداع الناس، كما تفعل معظم المناقشات حول التزييف العميق، يعني أن الناس يتعاملون مع المعلومات المُضللة على مستوى واقعي بحت، لكن هذا لا يحدث دائمًا، فعلى سبيل المثال ادعاء الرئيس الأمريكي السابق دونالد ترامب بأن أوباما لم يولد في الولايات المتحدة ووعد حملة خروج بريطانيا من الاتحاد الأوروبي “بريكست” بأن بريطانيا يمكن أن توفر 350 مليون جنيه إسترليني أسبوعيًا من خلال “البريكست” كانت ادعاءات قائمة على جزء من الحقائق الموجودة على السطح، ومع ذلك، فإنها لم تنجح.

  • التزييف الصوتي أقوى أم المرئي

من جهة أخرى، لقد شقت تقنية التزييف العميق طريقها إلى حملات الاتصال الحكومي، حيث نشرت قناة روسيا اليوم المملوكة للدولة الروسية، مقطع فيديو في يونيو الماضي يُظهر العديد من زعماء العالم في حيرة ويأس بشأن معاقبة روسيا؛ الرئيس الأمريكي جو بايدن يغفو على مكتب، ونظيره الفرنسي إيمانويل ماكرون يضرب رأسه في خزانة والمستشار الألماني أولاف شولتز، وهو يستخدم شات “جي بي تي” للبحث عن أفكار للعقوبات. وقد نوهت القناة بأن هذا المقطع ليس المقصود منه الخداع، حيث تظهر أسفل المشهد الافتتاحي، عبارة “تم إنشاء هذه الوسائط باستخدام شبكات عصبية لأغراض المحاكاة الساخرة”.

وتجدر الإشارة هنا إلى أن تأثير التزييف العميق لا يقتصر بالضرورة على جعل الناس يصدقون شيئًا غير صحيح، بل يهدف إلى إنشاء محتوى جذاب كجزء من سرد أوسع، تمامًا مثل كثير من أشكال الوسائط الأخرى.

من الواضح أن بعض التزييف العميق يهدف إلى الخداع، حيث تم تعطيل الانتخابات في سلوفاكيا مؤخرًا بسبب مقطع صوتي تم إنتاجه لكبار السياسيين وهم يقومون بتزوير الانتخابات، وسرعان ما تم كشف أنه مزيف، لكن القضية تسلط الضوء على كيفية استخدام التزييف العميق للتعطيل. وهذا يثير سؤالاً حول ما إذا كان الصوت أكثر إقناعًا من المحتوى المرئي، ويوضح كيف يمكن نشر المنتجات المزيفة في لحظات مناسبة قبل أن يتم دحضها.

وختامًا، يمكن القول بأن المخاوف بشأن الذكاء الاصطناعي التوليدي غالبًا ما تتجه نحو حالة من الذعر حيث لا يمكن تمييز الحقيقة عن الخيال، لذلك لكي نفهم التزييف العميق حقًا، من الأفضل أن ننظر إلى كيفية استخدامه اليوم دون تهوين أو تهويل.

زر الذهاب إلى الأعلى