تقارير

التزييف العميق ومستقبل إنشاء المحتوى

في غمرة التقدم المذهل الذي يشهده عالم الذكاء الاصطناعي أصبح من السهل تزييف مقاطع فيديو وصور تبدو واقعية بشكل كبير، في عملية تعرف باسم “التزييف العميق- deepfake”، الأمر الذي يخلق تحديًا جديدًا لمصداقية التجربة المرئية.
وقد تسبب التزييف العميق بالفعل في عواقب سلبية؛ مثل التضليل السياسي، والاحتيال المالي، وتزييف مواد إباحية، الأمر الذي أدى إلى الإضرار بالأفراد والمجتمع، وشكّل تقويضًا للقيم المجتمعية؛ مثل الثقة في المؤسسات، وهو ما يفرض ضرورة تضافر جهود الخبراء التقنيين والقانونيين المتعلقة بتطوير التكنولوجيا من أجل تخفيف الآثار السلبية، وتوعية الجمهور بالطرق التي يمكن من خلالها اكتشاف التزييف في المقاطع التي يراها، وكذلك التوسع في التوظيف الإيجابي لتلك التقنية الثورية في صناعة المحتوى في المجالات التعليمية والترفيهية، وأيضًا في قطاع الإعلام.
التوظيف الإيجابي للتقنية في مجال الإعلام والبرامج التدريبية
تُعد كوريا الجنوبية أولى الدول التي لجأت إلى توظيف تلك التقنية في مجال الإعلام، وذلك خلال العام الماضي 2020، حيث قامت محطة “إم.بي.إن” الإخبارية باستخدام التزييف العميق خلال تقديم نشرة أخبار رأس الساعة، حيث نفذتها لتحاكي أداء مذيعة الأخبار “كيم جو-ها”، إذ تمكنت من محاكاة صوتها وإيماءاتها وتعبيرات وجهها تمامًا على الشاشة، وهو ما لاقى ردود فعل متباينة بين الجمهور، فبينما اندهش البعض من مدى واقعية ذلك، أعرب آخرون عن قلقهم من أن تفقد المذيعة الحقيقية وظيفتها.
وفيما أعلنت المحطة عزمها الاستمرار في استخدام تقنية التزييف العميق لبعض التقارير الإخبارية العاجلة، أكدت شركة “Moneybrain” الكورية الجنوبية التي تقف وراء تقنية الذكاء الاصطناعي أنها ستبحث عن جهات إعلامية أخرى لشراء تلك التقنية في الصين والولايات المتحدة.
وتُشكل التجربة في مجال الإعلام توظيفًا مختلفًا عن الانطباع السائد لدى الأفراد حول تقنية التزييف العميق التي تثير في ذهنهم تخيل مقاطع فيديو مزيفة للمشاهير، ومنها على سبيل المثال مقاطع الفيديو المزيفة للنجم الأمريكي توم كروز، فهذه المقاطع المزيفة والنابضة بالحياة تصدرت عناوين الصحف حول العالم خلال الأسبوع الماضي، وحققت قناة “deeptomcruise” التي نشرت المقاطع على منصة تيك توك ما يقرب من 1,1 مليون إعجاب واجتذبت 380 ألف متابع، بالإضافة إلى ما يقرب من 12 مليون مشاهدة للمقاطع الثلاثة المزيفة، وفقًا لصحيفة “مترو” البريطانية.
وفي هذا الإطار، تشير هيئة الإذاعة البريطانية “بي.بي.سي” إلى أنه على الرغم من الدلالات السلبية المحيطة بمصطلح “التزييف العميق”، فإنه يتم استخدام تلك التقنية تجاريًّا بشكل متزايد، لا سيما في قطاعات؛ مثل الأخبار والترفيه والتعليم، والتي يطلق عليها بطريقة مهذبة مقاطع الفيديو التي يتم إنشاؤها بواسطة الذكاء الاصطناعي، أو الوسائط التركيبية.
وعلى صعيد التعليم والتدريب، تعتبر شركة “Synthesia” التقنية (مقرها لندن) من أوائل المتبنين لتلك التكنولوجيا، حيث تقوم بإنشاء مقاطع فيديو تدريبية مدعومة بالذكاء الاصطناعي للشركات، ومن بين عملائها شركة الإعلانات العالمية العملاقة “دبليو بي بي–WPP” وشركة “Accenture” للاستشارات الإدارية والخدمات المهنية.
ويرى فيكتور ريباربيلي، الرئيس التنفيذي لشركة Synthesia أن هذا هو مستقبل إنشاء المحتوى، فتلك التقنية تُسهل على الشركات العالمية إنشاء مقاطع فيديو بلغات مختلفة للعديد من الأغراض مثل الدورات التدريبية الداخلية.
طبيعة المحتوى وانتحال هوية المشاهير.. إشكاليات يثيرها التزييف العميق
وفي مقابل تلك النماذج للاستخدام الإيجابي للتزييف العميق في إنشاء المحتوى، توجد ثمة مشكلات قانونية تتصل بالتزييف العميق سواء على صعيد طبيعة المحتوى الذي يتم تزييفه أو الأشخاص الذين يتم انتحال هويتهم، وذلك في ظل وتيرة متسارعة لتقدم تلك التقنية، فمن يشاهد مقاطع الفيديو الزائفة لتوم كروز الأسبوع الماضي، يمكن أن يلمس مدى التطور في جودة تلك التكنولوجيا، فقد كانت المقاطع أكثر واقعية بكثير مما كانت عليه قبل أربع سنوات حين تم نشر فيديو لخطاب مزيف للرئيس الأمريكي الأسبق، باراك أوباما يعتذر فيه عن أخطائه السابقة.
وتستلزم تلك الطفرة التكنولوجية تطوير تشريعات وقوانين لتضييق الخناق على الجوانب السيئة والخطيرة لمحتوى التزييف العميق؛ مثل الترويج لخطاب الكراهية والانتقام الإباحي، لكن في الوقت ذاته لا ينبغي أن يؤدي ذلك إلى حظر التزييف العميق الذي يستخدم في أعمال ترفيهية ساخرة كشكل من أشكال حرية التعبير، أو في الاستخدام التجاري لتلك التقنية في أعمال مثل تحويل الأفلام إلى لغات مختلفة أو إنشاء مقاطع فيديو تعليمية جذابة.
وفي ذات الإطار، تسلط ليليان إدواردز، أستاذة القانون والابتكار والمجتمع بكلية الحقوق في نيوكاسل، والخبيرة في التزييف العميق الضوء على إحدى المشكلات التي تحيط بالاستخدام التجاري لتقنية التزييف العميق، التي لم تتم معالجتها بالكامل، ألا وهي من يمتلك حقوق مقاطع الفيديو عندما يتم استخدام شخصيات المشاهير الراحلين، مثل الممثل الأمريكي ستيف ماكوين أو مغني الراب الأمريكي توباك شاكور، إذ يوجد نقاش دائر حول ما إذا كانت حقوق تلك المقاطع تؤول إلى أسرهم، وهي مسألة تختلف من بلد إلى آخر.
تحليل انعكاسات الضوء على العين كأداة لاكتشاف التزييف العميق
ويعتبر التزييف العميق جزءًا من مشكلة أكبر تتعلق بالمعلومات الخاطئة التي تقوض الثقة في المؤسسات والتجربة المرئية، إذ لم يعد بإمكاننا الوثوق بما نراه ونسمعه عبر الإنترنت، وهو ما استنفر جهود الخبراء التقنيين للإسهام في معالجة تلك الظاهرة؛ إذ تمكن علماء في مجال الكمبيوتر بجامعة بوفالو الأمريكية من تطوير أداة لاكتشاف التزييف العميق أظهرت فاعلية بنسبة 94%، حيث تقوم بالتعرف تلقائيًّا على الصور المزيفة عن طريق تحليل انعكاسات الضوء في العين.
ويشير سيوي ليو، أستاذ الابتكار في جامعة ولاية نيويورك ورئيس فريق البحث الذي تمكن من تطوير تلك الأداة المسماة “أداة خرائط الوجه” إلى أن قرنية العين تكون عاكسة للصورة التي تراها، وبالتالي عند النظر إلى شيء ما، فإن صورة ما يتم رؤيته تنعكس في العين، لذا يجب أن يكون للعينين أنماط عاكسة متشابهة جدًا لأنها ترى نفس الشيء.
ومع ذلك، فإن معظم الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي – بما في ذلك صور شبكة الخصوم التوليدية (GAN) – تفشل في القيام بذلك بدقة أو باستمرار، ربما بسبب استخدام العديد من الصور من أجل إنشاء صورة مزيفة. كما أن مقاطع فيديو التزييف العميق تكون معدلات وميضها غير متسقة للفيديو الأصلي.
وتأسيسًا على ما سبق، يمكن القول إن التعرف على الصور ومقاطع الفيديو المزيفة بات أمرًا في غاية الأهمية، في ظل تنامي مخاطر المعلومات المضللة على المجتمعات، لا سيما تلك المتعلقة بالأبعاد السياسية والعرقية. كما أن خطورة التزييف العميق أشد بالنسبة للأفراد، حيث يتم استخدامه في الغالب لأغراض إباحية، الأمر الذي يلحق أضرارًا نفسية بالضحايا من الصعب تجاوزها.
ويبقى التأكيد على أهمية استغلال التزييف العميق بشكل إيجابي، فلا يجب أن يعيق القلق المتزايد بشأن حالات التوظيف الخبيث لهذه التقنية، جهود الاستثمار في الاستخدام التجاري المشروع لتلك التكنولوجيا في قطاعات الإعلام والتعليم والتدريب والترفيه.

زر الذهاب إلى الأعلى