أحدث أسلحة «حرب الأكاذيب».. 

المونتاج والـ«Deepfake».. عصر جديد من فنون «الفبركة والتزييف»

المونتاج وDeepfake أحدث أسلحة حرب الأكاذيب والشائعات
المونتاج وDeepfake أحدث أسلحة حرب الأكاذيب والشائعات

- الخشاب: التعديل على الفيديو لم يعد صعبا.. واحتراف البرامج متاح على «يوتيوب»

- جبريل: التقنيات الحديثة المضادة توفر حلاً جزئياً

 

شـاهـدنـا في الآونة الأخيرة العديد مـن الفيديوهات المفبركة والمزيفة على مـواقـع التواصل الاجتماعي المختلفة، كـان الهدف منها توجيه رسالة محددة تخدم أفكار الجماعات الإرهابية لتعود بنا لنقطة ما قبل الصفر.. واستخدمت تقنيات حديثة في ترويج الشائعات على جمهور الإنترنت.. فلم تكتف بنشر أخبار كاذبة أو صور قديمة فقط.. بل قامت بالتعديل والفبركة على الفيديوهات مستخدمة برامج وأساليب تستخدم في فنون المونتاج والإخراج السينمائي، وبجانب فنون السينما تنتشر وتتطور تقنيات «الديب فيك»، لنكون على أبواب حرب تضليل معلوماتية خطيرة تستخدم أحـدث التقنيات التكنولوجية التي عرفها هـذا العصر.. وخـلال هذا التحقيق نحاول الاقتراب منها وإلقاء الضوء على كيفية عملها وتطورها وتكلفتها وكيف يمكن مواجهتها؟

 

يجب أن نفرق أولا بين نوعين من الوسائل والتقنيات التي تستخدم للتعديل على الفيديوهات وصناعة فيديوهات مزيفة، الطريقة الأولـى يستخدم فيها برامج المونتاج والمؤثرات السينمائية وفنون الإخراج السينمائي، والثانية يستخدم فيها تقنية «الديب فيك».. وسوف نتحدث أولا عن تـقـنـيـات فــنــون المــونــتــاج والإخـــــراج السينمائي في تزييف الفيديوهات ومـن أشهر الخـبـراء في هـذا المجال هـو المـخـرج تـامـر الخـشـاب أو «بتاع الفلاشة» كما اشتهر على السوشيال ميديا بعد حضوره المؤثر في مؤتمر الشباب الأخير، حيث قـام بعرض نماذج لفيديوهات مزيفة صنعها بنفسه لتوضيح كيفية استخدام تلك البرامج في تحريف وفبركة الفيديوهات غير الحقيقية، وأوضـح كيفية إضافــة مؤثرات بصرية وسمعية بغرض التضليل لإنتاج فيديو خلال المؤتمر خُدع فيه أغلب الخبراء في مختلف المجالات. 

 

ويوضح المخرج تامر الخشاب مقدم بـرنـامـج «فـشنـك» على قـنـاة سي بي سي، أن المونتاج هو فن اختيار وترتيب المشاهد وطولها الزمني على الشاشة بحيث تتحول إلى رسالة محددة المعنى، ويستند المونتير الذي يقوم بالمونتاج والتعديل على الفيديوهات في عمله على خبرته وحسه الفني وثقافته العامة وقدرته على إعـادة إنتاج مشاهد تبدو مألوفة بالقص واللصق وإعادة الترتيب والـتـوقـيـت الزمني للأحداث، حتى تتحول إلى دراما ذات خطاب موجه إلى الجمهور، ومع الطفرة التقنية التي تتسارع وتيرتها يوما بعد يوم في هذا المجال، يبرز دور المونتير إلى أن يتوازى مع دور المخرج وكاتب السيناريو لأي عمل درامي.

 

ويضيف الخشاب أن برامج المونتاج والتعديل على الفيديوهات وإضافة صور ونصوص ومـقاطع صوتية إلى الفيديو متاحة للجميع على الإنترنت وليست حكرا على أحد، ومتاحة بسهولة بـالإضافـة إلى توفر المواد التعليمية والشرح الخاص بها على اليوتيوب ويمكن مشاهدتها والتعلم منها واحترافها، ويمكن استعمال تلك البرامج على الكمبيوتر العادي فهى لا تحتاج مواصفات أجهزة جـبارة لتشغيلها، وإنتاجها لا يتكلف الكثير لأنها تعتمد على فـيـديـوهات التقطت مــن خـلال كاميرا الموبايل البسيطة، قام بتصويرها أفراد عاديون ليسوا محترفين ويتم التعديل عليها باستخدام تلك البرامج، لأنها لو التقطت من مصورين محترفين وتم التعديل عليها داخل أستوديو وزادت تكاليف إنتاجها قد تفقد مصداقيتها والهدف من ورائهـا، لأن الـنوع الأول مـن الـتصوير يعطي مصداقية أكثر للفيديوهات المزيفة.. بسبب تصويرها من قبل المواطن العادي ويعبر فيها عن رأيه تجاه قضية معينة أو يظهر شكواه ومعاناته تجاه خدمة أو مرفق محدد.. وهذا هو المطلوب لتحقيق هدفها وهو إقناعك بسبب بساطتها، لذلك لا يحتاج الفيديو المعدل إلى مجهود كبير بل يحتاج إلى الخبرة وجهاز كمبيوتر بسيط نسبيا.

 

«التلاعب بالميديا»

 

ويــؤكــد الخــشــاب أن زيـادة وعـي الشخص نفسه هو الحل لاكتشاف مثل تلك الفيديوهات المزيفة، وعليه أيضا أن يشك دائما في المعلومة وخاصة التي تحوي رسالة موجهة، مثل الفيديو الذي عرض في مؤتمر الشباب ويظهر وجود شروخ في مشروع للإسكان الاجتماعي بحي الأسمرات، وكان الـغـرض من عرضه هو توصيل رسالة إلى المشاهد بوجود تقصير رهيب في التشطيبات وعدم الاهتمام بهذا المشروع والتشكيك في الجهة المنوطة ببنائه، ويعتبر هذا الـفـيـديـو مــن الـفـيـديـوهـات المـوجـهـة وعليه يجب أن يتصرف المواطن بنفس الطريقة مع أي فيديو موجه ويحتوي رسالة مثل السابقة، فإذا وجد فيديو عـلـى الإنــتــرنــت أو مــواقــع الـتـواصـل الاجتماعي يشكك في معلومة تاريخية أو معلومة دينية أو يقلل من مجهود ويـسـيء إلـى أي جهة أو مؤسسة من مؤسسات وهيئات الدولة، أن يتحقق أولا ويـبـحـث ويستفسر ولا ينجرف ويصدق بكل حواسه أن هذا الفيديو صحيح وإذا قــدر له أن يـخـدع مـرة فيحاول ألا يخدع مرتين، وكان هدفي مــن الـفـيـديـوهـات التي عـرضـت في مؤتمر الشباب هو التأكيد على نقطة أن كل شيء في هذا العصر من ميديا قـد يتلاعب فيها لتضليل المشاهد، بسبب أن تلك التقنيات تستطيع أن تخلق أحداثا من العدم.

 

«المشاهد والإعلام»


 
ويوجه الخشاب رسالة إلى جمهور المشاهدين والمستخدمين للإنترنت والذين تعرض عليهم مثل تلك الفيديوهات بضرورة أن يعى دائما أنه مستهدف ويجب أن يكون في حالة شك مما يعرض عليه من فيديوهات موجهة لها رسالة القصد منها الاستثارة وتوجيه الفكر وتغيير المعتقدات، لأن العدو الآن يستطيع أن يخترق ذاتك وإدراكك باستخدام رسالة الـصـوت والـصـورة معا، وأؤكد: أنت مستهدف والحرب لم تنته بل قام العدو بتغيير أساليبه وتقنياته ويرسم تكتيكا جديدا للاستمرار في المراوغة والمناورة.. ويجب عليك أن تتعلم وأن تدرك أن «الفبركة» وتزييف الواقع أصبح سهلا جدا، ويجب أن نتعلم ولا نقتنع بسهولة، مشددا على أن البرامج المستخدمة في تعديل الفيديوهات تـتـطـور بـاسـتـمـرار، وعـلـى الإعلام والمؤسسات الصحفية أن تستعد لتلك الحـرب الجديدة بشيء من الدراسة والأبحاث العلمية والعملية، حتى تقدم للجمهور مادة غنية بطريقة مختلفة تشد انتباه المشاهد ليتذكر الحقيقة ويتجاهل ما أشيع وينساه وألا يقتصر الرد والمعالجة على النصح والإرشاد.

 

 

«الذكاء الاصطناعي» 


وعن مستقبل المونتاج والتقنيات التي تستخدم في الإخـراج يشير الخشاب إلى أن الذكاء الاصطناعي اقتحم فنون المونتاج والإخـراج والمـؤثـرات والخـدع السينمائية منذ فترة وهناك الكثير من الخدع السينمائية يستخدم فيها الذكاء الاصطناعي، وعلى سبيل المثال يمكن بناء شخصيات افتراضية بالكامل على برامج الكمبيوتر وإدخالها في حروب والتحكم فيها، وسوف تذهل من تلك اللقطات مسبقا وعندما تشاهدها كأنك تشاهد ممثلين حقيقيين يتحاربون، وهــذا يزيد من الخوف إذا ما انتقلت تلك التكنولوجيا لعالم التزييف لأنها قد تنتج فيديوهات تؤدي إلى كوارث حقيقية.

 

«الديب فيك.. Deepfake»

 

عصر جديد من الفبركة والتزييف.. حيث تـسـتـخـدم فــيــه الـتـكـنـولـوجـيـا والتقنيات والبرمجيات المعقدة وقد يستحيل فيه تمييز الحقيقة عن الكذب، إنه عصر التزييف العميق أو ما يعرف بـالـديـب فـيـك الــــ «Deepfake».

 

ومصطلح الـ ««Deepfake مكون من مقطعين.. الأول ويقصد به العمق وهى مشتقة من مصطلح التعليم العميق أو «LEARNING DEEP» ويطلق هذا المصطلح على البرامج التي تستخدم الذكاء الاصطناعي، لتطوير تعلم الآلات وتـطـور الـبـرمـجـيـات الــلازمــة لها والمقطع الثاني وهـو التزييف، ويطلق مصطلح الديب فيك «Deepfake» على الصور والفيديوهات المفبركة والتي استخدم فيها تقنية وشبكات الـ«GAN» ووصــف علماء البرمجة في العالم تلك الشبكة بأنها من أكثر البرمجيات إثارة للدهشة، فتتميز تلك التقنية عن غيرها من شبكات الذكاء الاصطناعي الأخـرى بأنها لا تكتفي فـقـط بمـقـارنـة الـبـيـانـات وتصنيفها وعرض النتائج بناء على مدخلات ثابتة، بل لها القدرة على التعلم وإنتاج بيانات مشابهة للبيانات الأصلية!

 

«البداية»

 

في نوفمبر عام ٢٠١٧ نشر بوست على موقع «REDDIT» مـن خـلال إحدى الصفحات.. عبارة عن الإعلان عن مقاطع فيديوهات كثيرة «إباحية» لشخصيات عامة ومشهورة أجنبية! وانتشر البوست سريعا وكانت تلك المـقـاطـع واقـعـيـة ومـقـنـعـة ولا يمكن التفكير في فبركتها أو التلاعب بها بالوسـائـل التقليدية، وقـبـل بوست «REDDIT» وفـى عـام ٢٠١٤ نشرت جامعة كورنيل «جامعة أمريكية خاصة في ولايـة نـيـويـورك».. ورقـة عمل قام بها الدكتور «ايان جودفيلو» يصف فيها نوعا جديدا من الشبكات العصبية الاصطـناعـيـة، والمـقـصود بالشبكة هنا أكـواد وبرمجيات وبرامج معقدة مرتبطة ببعضها البعض وتعتمد على بعضها في العمل، وعرفت تلك الشبكة بالشبكة التخاصمية المــولــدة أو Generative Adversarial Network أو الـ «GAN ..وتلك الشبكة العصبية هـى خـوارزمـيـة تتكون مـن مجموعة من التعليمات المتسلسلة قــادرة على توليد النصوص والصور والموسيقى.

 

وتعتبر شـبـكـات الـ«GAN» البنية التحتية لكل البرامج والبرمجيات التي تنتج ما يعرف بالديب فيك، ويشار إلى جودفيلو بأنه ذلك الشخص الذي أعطى الآلات القدرة على التخيل.

 

«الصراع التقليدي» 

 

ربمــا الـتـسـاؤل حــول كيفية عمل تلك التقنية يزيد أهمية نسبية عن مـشـاهـدة أحـــد الـفـيـديـوهـات التي انتجت بها، وسنشرح بطريقة مبسطة كيفية عـمـل تـلـك التقنية معتمدة على الشبكة التخاصمية المـولـدة أو الـــ «GAN».. وتـلـك الشبكة عبارة عن شبكتين الأولـى يطلق عليها المـولـد وهى تنتج عينات عشوائية في اتجــاهـين وشـبكة أخرى يطلق عليها المميز ووظيفتها التمييز بين العينات والبيانات الحقيقية والعينات والـبـيـانـات غير الحقيقية، وتحــاول الشبكتان دائما خـداع بعضهما البعض.. فتحاول الأولى إنتاج عينات عـشـوائـيـة والـثـانـيـة تـتـعـرف عليها وتمنعها بسبب عدم مطابقتها للعينات الأصلية، وبذلك نكون أمـام شبكتين متخاصمتين تحاول كل شبكة منهما التفوق على الأخـرى، والنتيجة تكون تعلم شبكة المولد والتي تنتج عينات غـيـر حقيقية كـيـف تـخـدع الشبكة الثانية وتتغلب عليها بمرور الوقت!، حـتـى تـصـل لإنـتـاج عـيـنـات وبـيـانـات مشابهة لحد كبير للعينات والبيانات الحقيقة وقد تصل لدرجة يعجز فيها المميز التفرقة بين العينات الحقيقية وغير الحقيقية.. الأمر أشبه بالصراع التقليدي بين مزور العملات النقدية الذي يـحاول بـشـتى الطــرق صنع عـمـلات نقدية مـزيفـة، ومــن الجهة الأخرى يقف الشرطي المتخصص والذي يحاول جاهدا كشف التزوير.

 

فـــإذا أردنـــا تغيير صورة شخص ما بفيديو معين فإننا نقوم بإدخال صـور الشخصين معا، وتقوم برامج الـ «GAN» بـالـتـعـرف عـلى صـور الشخصين وتصنيفها وكطفل يتعلم الرسم تتعلم التقنية ملامح الوجهين، وبعـد ذلك نستخلص الـصـور المــراد تـغـيـيـرهـا بجـميـع مـقاطع الفيديـو الأصلي وتبديلها بالصور التي أنتجتها الشبكة.. والأمر هنا بتعبير تقني كأنك تضغط ذر الماوس لتقول للبرنامج قم بإعادة رسم الوجه للشخص الأصلي بمـلاح وخصائـص وجه الشخص الأخر، ويعتبر برنامج «FACE APP» من أشهر البرامج التي استخدمت تلك التقنية وأبسط مثال على قدراتها.

 

هدف الـ«Deepfake»

 

ويؤكد شادي جبريل متخصص في التحقق عن الأخبار وتدقيق الوقائع أن التزييف العميق أو الديـب فيك تقنية تستخدم لإنــتــاج فيديوهات مــفــبـركــة تـسـتـهــدف الـشـخـصـيـات العامة سـواء كانت سياسية أو غير سياسية، وتستخدم لإظهارهم يدلون بتصريحات لم يدلوا بها أو إنتاج فيديو يسيء لسمعتهم، وتقوم التقنية على رصد صور متعددة لحركة وجه وفم الشخصية المراد تزييف تصريحاتها، ويـتـم نقل هــذه الـصـور إلــى برنامج الشبكة العصبية من أجل دمجها مع وجه شخصية أخرى تدلى بتصريحات تظهر في نهاية عملية التزييف على لسان الشخصية الأولى، ويوضح جبريل أن تلك التقنية استخدمت في بادئ الأمــر مـع فنانين مشهورين لتشويه سمعتهم بـالـزج بصورهم في أفـلام إباحية لم يكونوا فيها على الإطلاق، ولكن سريعا ما تطور الأمر وانتقل إلى فبركة تصريحات شخصيات عامة سياسية، كانتشار فيديوهات مفبركة للرئيس الأمريكي الأسبق باراك أوباما وأخرى للرئيس الأمريكي الحالي دونالد ترامب.. الأمر الذي يؤكد خطورة تلك التقنية واستعمالها لتزييف الحقائق في قضايا شائكة

 

«طرفة عين!»

 

وقد يتعرض جمهور مواقع التواصل الاجتماعي والإنترنت في المستقبل القريب لمقاطع مصممة على طريقة ««Deepfake تستهدف نسب تصريحات لمسئولين وشخصيات عامة، تهدف إلى استفزاز مشاعر الجمهور، وإذا ما راودتك تلك الأحاسـيـس والـظـنـون فينصح خبير التحقق مـن الأخـبار وتدقيق الوقائع جمهور الإنترنت بالشك! وأولـى الخطوات التي يـقـوم بها المـشـاهـد للكشف عــن حقيقة هـذا الفيديو وهل استعملت فيه تقنية الديب فيك هى مشاهدة مقطع الفيديو بالبطيء لاكتشاف ما إذا كان هناك تغير للون البشرة في حافة الوجه أم لا، ثم على المشاهد ملاحظة طرفة العين للشخص الظاهر بالفيديو.. فالأشخاص تطرف أعينهم ما بين ٢ و١٠ ثـوان وتستغرق الومضة ما بين عشر وأربـعـة أعـشـار الثانية، وهـذا لن يحدث في العديد من فيديوهات الــديــب فـيـك، ومـن أهم الخـطـوات للتحقق هـى تـوافـق وتـزامـن مؤثرات الصوت الخلفية مع طبيعة المكان الذي تم فيه تصوير الشخص.

 

ويشير جبريل إلى أن ذلك مؤشرا قـويا عـلـى تزييف المقطع، فعلى سبيل المثال يتم تصوير شخص ما بالطائرة وتسمع أصـوات عصافير أو أحد مؤثرات الصوت في الشارع بخلفية الفيديو.. بالإضافة إلى حركة الفم والشفاه البطيئة والتي قد لا تتزامن مع النطق الصحيح للكلام.

 

«حل جزئي»

 

كل ما سبق من الأخطاء الشائعة التي يقع فيها المـزيـفـون عند صنع الديب فيك، وتلك التقنية في تطور مستمر ومــطــوروهــا مــن المبرمجين يتعلمون من أخطائهم بسرعة، ويقوم الخبراء والباحثون في العالم الغربي حاليا على تطوير أداوت مضادة يمكنها الكشف عن التزييف العميق، ولكن تلك الأدوات لن تـقـدم سـوى حل جزئي لهذه المشكلة لسرعة تطور التقنية والشبكة الخاصة بها، تماما كما هـو الحــال مـع تـطـور فيروسات الكمبيوتر وكيفية مكافحتها.

 

ويوضح جبريل أنه في المستقبل ستتخذ تلك التقنيات منحى خطيرا إذا لم تُشرع قوانين صارمة تجرم من استخدامها في أغـراض التزييف والتشهير، وأن يتم الإعلان عن الأدوات والتقنيات التي تكشف الـديـب فيك، لأن الأدوات الكاشفة لم تخرج إلى النور بـشـكـل قـــوى حـتـى الآن، والإعلان عنها سيثرى النطاق البحثي بمزيد من المعلومات المهمة في فضح تقنية التزييف العميق.. ويـنـصـح جبريل الجمهور بتوخي الحذر عند الاستماع لـتـصـريـحـات مـثـيـرة لـلاسـتـفـزاز أو غير اعتيادية أدلــت بها شخصيات عامة، وعليهم الرجوع لمصدر الفيديو الأصلي للتعرف على مدى مصداقية التصريحات وتطبيق ما أشـرت إليه من قواعد تعتمد على قوة الملاحظة للفيديو المشكوك فيه.

 

ويشير إلى أن الفيديو المزيف بالديب فيك على نحو احترافي شديد لا يتعدى الثلاثين ثانية أو دقيقة على الأكثر بسبب التكلفة المـرتـفـعـة في إنتاجه، ويــؤكــد خبير التحقق وتدقيق البيانات على ضرورة إنشاء «وحـــدة لتدقيق الـوقـائـع» في كل مؤسسة إعلامية وصحفية لتقوم برصد مقاطع الفيديو والتعرف على مدى صحتها حتى لا تقع في مصيدة النشر السريع قبل التحقق من الخبر.