أضحت مقاطع الفيديو ميزة أساسية على مواقع التواصل الاجتماعي، وأداة مهمة لجذب رواد تلك المنصات، الذين يقبلون على مشاهدة تلك المقاطع وتداولها فيما بينهم، وقد أدت تلك البيئة الرقمية المواتية للانتشار وكذلك التطور التكنولوجي إلى بزوغ ظاهرة أخرى وهي الفيديوهات المفبركة عبر تقنية “التزييف العميق”.
وتتراوح دوافع استخدام تلك التقنية ما بين الترفيه والسخرية من الشخصيات العامة وتشويه السمعة والانتقام الإباحي، وقد رصدت شركة “Sensity” للتكنولوجيا ارتفاع عدد مقاطع الفيديو المفبركة على الإنترنت على مدى الأشهر الستة الأولى من العام الحالي، حيث تضاعف عددها ليبلغ 49081 مقطع فيديو.
الإمكانات التقنية لتفعيل أدوات “التزييف العميق”
كانت بداية ظهور “التزييف العميق – deepfakes” في عام 2017 عندما نشر مستخدم لموقع التواصل الاجتماعي Reddit مقاطع معدلة على الموقع لعدد من المشاهير، وتم الاعتماد في تلك المقاطع على “خوارزمية الذكاء الصناعي AI Algorithm” لمبادلة الوجوه.
كما يعد استخدام ما يسمى بنظام شبكة الخصومة التوليدية “Gan” a generative adversarial network، النهج الأكثر انتشارًا لإجراء عملية التزييف العميق.
ووفقًا لصحيفة “جارديان” البريطانية، فإن بإمكان أي شخص أو جهة إعداد مقاطع فيديوهات التزييف العميق، لكن الجودة تتطلب توافر تجهيزات لوجيستية وتقنية، حيث يتم إنشاء معظم فيديوهات التزييف العميق على أجهزة كمبيوتر سطح المكتب المتطورة باستخدام بطاقات رسومات قوية أو باستخدام قوة الحوسبة في السحابة، الأمر الذي يختصر مدة إعداد الفيديوهات من أيام وأسابيع إلى ساعات فقط.
وتجدر الإشارة أيضا إلى أن هناك الكثير من الأدوات المتاحة الآن لمساعدة الأشخاص في إعداد فيديوهات التزييف العميق، فهناك تطبيقات للهاتف المحمول تتيح للمستخدمين إضافة وجوههم إلى قائمة شخصيات وردت في مقاطع فيديو تم تدريب التطبيق عليها، ومن أمثلة ذلك تطبيق “زاو –Zao” الصيني.
وقد ركزت مشروعات بحثية على طريقة استخدام تحليل الصور للكشف عن عمليات التزييف العميق، فعلى سبيل المثال، نشر باحثون أمريكيون في يونيو 2018 دراسة تصف طريقة مساعدة تحليل ومضات الأعين في الكشف عن مقاطع الفيديو ذات التزييف العميق.
وتشير الدراسة إلى أنه عادة لا تتوفر صور كافية للأشخاص وهم يومضون بأعينهم، فغالبية الصور تظهرهم بأعين مفتوحة، وبالتالي لا تتمكن الخوارزميات من محاكاة الوميض، لذلك كان الأشخاص في مقاطع فيديو التزييف العميق يومضون بأعينهم بصورة نادرة، يصعب تصديقها.
ولكن ما إن نُشرت تلك الدراسة حتى ظهرت تقنية التزييف العميق مع الوميض، ولعل هذه هي طبيعة تلك التقنية، فبمجرد الكشف عن نقطة ضعف يتم معالجتها.
انتشار “التزييف العميق” عبر مواقع التواصل الاجتماعي
وتبرز خطورة تقنية التزييف العميق من خلال مشاركات مستخدمي مواقع التواصل الاجتماعي لفيديوهات “التزييف العميق” وانتشارها على نطاق واسع، وتعرضهم للخداع، حيث وجدت دراسة استقصائية أجرتها جامعة نانيانغ التكنولوجية في سنغافورة شملت 1231 شخصًا، أن واحدًا من كل ثلاثة من المشاركين في الدراسة قام بمشاركة محتوى على وسائل التواصل الاجتماعي عَلِمَ لاحقًا أنه كان مزيفًا.
كما أفاد واحد من كل خمسة أشخاص ممن هم على دراية بالتزييف العميق ضمن عينة الدراسة أنهم يواجهون محتوى التزييف العميق عبر الإنترنت بانتظام.
وقامت الدراسة التي نُشرت في مجلة”Telematics and Informatics“ في أكتوبر الماضي، بقياس النتائج المتعلقة بفهم السنغافوريين للتزييف العميق مقابل مجموعة ديموغرافية مماثلة في الولايات المتحدة، وخلصت إلى أن المشاركين في الاستطلاع في الولايات المتحدة أكثر وعيًا بالتزييف العميق (61% في الولايات المتحدة مقابل 54% في سنغافورة).
ويشير الدكتور سيف الدين أحمد، الأستاذ المساعد في جامعة نانيانغ التكنولوجية، المشرف على الدراسة إلى أن التزييف العميق هو شكل جديد أكثر خداعًا من الأخبار المزيفة، لافتًا إلى أنه في بعض البلدان تم استخدام التزييف العميق لإنشاء مواد إباحية، والتحريض على الخوف والعنف، والتأثير على انعدام الثقة بالمجتمع، ومع تطور تقنية الذكاء الاصطناعي سيكون من الصعب للغاية تمييز الحقيقة من الخيال.
وأوضح سيف الدين أنه بينما بدأت شركات التكنولوجيا مثل فيسبوك وتويتر وجوجل في تصنيف ما حددته على أنه محتوى تم التلاعب به على الإنترنت مثل التزييف العميق، ستكون هناك حاجة إلى مزيد من الجهود لتثقيف المواطنين من أجل رفض هذا المحتوى بشكل فعال.
الأبعاد القانونية والأخلاقية ذات الصلة بتلك التقنية المثيرة للجدل
توجد تساؤلات عديدة تحيط بتقنية التزييف العميق من النواحي القانونية والأخلاقية، وإلى أي مدى قد يضع استخدام تلك التقنية الأشخاص تحت طائلة القانون.
ويمكن القول بأن تقنية التزييف العميق ليست غير قانونية في حد ذاتها، ولكن منتجي فيديوهات التزييف العميق وموزعيها يمكن أن يرتكبوا بسهولة مخالفة قانونية اعتمادًا على المحتوى الذي قد ينتهك حقوق الطبع والنشر، أو يشكل خرق القانون حماية البيانات، وقد يكون تشهيريًّا إذا كان يعرض الضحية للسخرية أو الإساءة.
وهناك أيضًا احتمالية لوقوع جريمة جنائية تتمثل في مشاركة الصور الحميمية الخاصة دون موافقة أصحابها، أي ما يعرف بـ”الانتقام الإباحي”، وهي جريمة تودي بمرتكبها للسجن مدة عامين، وفقًا للقانون في بريطانيا.
ويبدو تساؤل آخر مفاده: هل التزييف العميق ضار دائمًا؟
والإجابة أنه ليس بالضرورة على الإطلاق، فالكثير من تلك المقاطع يكون ترفيهيا، وبعضها يكون مفيدا حيث يمكن لاستنساخ الصوت أن يعيد أصوات الأشخاص عندما يفقدونها بسبب مرض ما.
كما يمكن استخدام تلك التقنية في صناعة الترفيه لتحسين دبلجة الأفلام الأجنبية، والأكثر إثارة للجدل، الاستعانة بممثلين راحلين في بعض الأفلام من خلال توظيف تقنية “التزييف العميق”، فعلى سبيل المثال من المقرر أن يلعب الممثل الراحل جيمس دين دور البطولة في فيلم “Finding Jack“، وهو أحد أفلام حرب فيتنام.
الذكاء الاصطناعي كحل لإشكالية “التزييف العميق”
من المفارقات أن الذكاء الاصطناعي قد يكون هو الحل للتغلب على “التزييف العميق”، حيث يساعد في اكتشاف مقاطع الفيديو المزيفة، لكن العديد من أنظمة الكشف الحالية بها نقطة ضعف خطيرة تتمثل في أنها تعمل بشكل أفضل مع المشاهير، لأنها تستطيع التدريب على ساعات من اللقطات المتاحة مجانًا.
وللتغلب على تلك المعضلة تعمل شركات التكنولوجيا الآن على تطوير أنظمة للكشف تهدف إلى الإبلاغ عن مقاطع الفيديو المقلدة متى ظهرت، عبر التركيز على أصل المادة الإعلامية، ففي الوقت الذي لا تعد فيه العلامات المائية الرقمية دليلا للتأكد من صحة المقطع، فإن قواعد البيانات عبر الإنترنت يمكنها الاحتفاظ بسجل غير قابل للعبث بمقاطع الفيديو والصور والصوت، بحيث يمكن دائمًا التحقق من أصولها وأي عمليات تلاعب قد تطرأ عليها.
تأسيسًا على ما سبق يمكن القول بأن تقنية التزييف العميق جنبًا إلى جنب مع الأخبار المزيفة وانتشارهما على منصات التواصل الاجتماعي من شأنهما إفراز مجتمع يسود فيه انعدام الثقة، فلا يستطيع أفراده تمييز الحقيقة عن الباطل، أو ربما لا يسعون إلى ذلك، وعندما تتآكل الثقة يكون من السهولة بمكان إثارة الشكوك حول كل شيء.
كما تشكل تقنية التزييف العميق خطرًا على الأمن الشخصي، إذ يمكن أن تحاكي تقنية التزييف العميق البيانات البيومترية، وتخدع الأنظمة التي تعتمد على التعرف على الوجه أو الصوت.