التزييف العميق: زعزعة ثقة المتلقي بما يرى

صدى وادي التيم-متفرقات/

في عصرنا الرقمي الحديث، بات انتشار الأخبار الكاذبة مصدراً للقلق، وتفاقم هذا الوضع بفعل انتشار تكنولوجيا التزييف العميق أو ما يُعرف بالـ”deepfake”. يُقصد بالـ”deepfake”  التلاعب بالمحتوى عبر استخدام الذكاء الاصطناعي من خلال انتاج محتوى صوتي أو مرئي مفبرك، بدقة عالية، والهدف منه خداع المشاهد. فاقمت هذه التكنولوجيا الناشئة، التحديات أمام مدققي المعلومات، إذ تشكل عائقاً أمام التحقق من الأخبار الكاذبة ومكافحتها.

فهم الـ”Deep Fakes”:

يتم إنشاء الـ”deepfakes” باستخدام تقنية تعرف باسم “Generative Adversarial Networks”، وهي جزء من الذكاء الاصطناعي. تتألف GANs من شبكتين عصبيتين، مُنتِج ومميِّز، وتعملان بتناغم. 

يقوم “المُنتج” بإنشاء محتوى صناعي، بينما يحاول “المميز” التمييز بين المحتوى وبين المواد الحقيقية. من خلال التدريب التكراري، يقوم المُنتج بتحسين المحتوى الذي يتم إنتاجه لدرجة يصبح غير قابل للتمييز عن المحتوى الحقيقي.

لطالما كانت تقنيات التزييف العميق موجودة، إلا أنّ مصطلح “deepfakes” استخدم لأول مرة في العام 2017 على منصة التدوين “Reddit”. بعد ذلك، بدأ ظهور بعض الحالات البارزة للـ”deepfakes”، إلى جانب المخاوف من نشر المعلومات الخاطئة، والتلاعب السياسي، و”الاستخدام غير الأخلاقي”…

وهناك ما يُسمى بـ “the liar’s dividend”، حيث يسعى البعض لإضعاف ثقة المتلقّي بوسائط الإعلام، من خلال إنتاج محتوى مزيف، ليفقد القدرة على تمييز ما هو صحيح، في محاولة لاستغلال هذا الارتباك لصالحهم.

التحديات في فحص الـ”Deep Fakes”:

رافق انتشار تكنولوجيا “التزييف العميق” عدة تحديات، لعلّ أبرزها الواقعية، بحيث يمكن أن يكون المقطع المُنتج واقعياً بشكل لافت، ممّا يجعل التمييز بين  المحتويين حقيقي والمفبرك أمراً صعباً.

من الممكن أن ينتشر المحتوى المفبرك بسرعة عبر وسائل التواصل الاجتماعي، مما يجعل مهمة السيطرة عليه صعبة قبل أن يصل إلى فئة كبيرة من الجمهور. وهذا ما شهدته منصة “إكس” أواخر الشهر الماضي، بحيث تمّ التداول بصور إباحية للمغنية الأميركية تايلور سويفت، والتي أنشئت بواسطة الذكاء الاصطناعي.

هنا، لا بد من الإشارة إلى أنّ التحسين المستمر لخوارزميات التزييف العميق، يجعل مهمة رصدها أكثر صعوبة بحيث تعتمد غالبًا على تحريف السياق، وقد تُستخدم للتلاعب في تصوّر الوضع أو الفرد.

اكتشاف الـ”Deep Fakes”:

على الرغم من التحديات الكبيرة التي ترافق السيطرة على هذا النوع من المحتوى، لا بد من الإشارة إلى التالي: 

تفتقر خوارزميات التزييف العميق للقدرة على تكرار تعابير الوجه بشكل مثالي ومطابق، ما يعني أنّ البحث عن تناقضات دقيقة في ملامح الوجه قد يكون من المؤشرات المحذّرة.

قد تحتوي مقاطع الفيديو الـDeepfake على  مشاكل على شكل: مزامنة الشفاه مع الكلام، أو حركات الرأي الغريبة ، ويمكن لهذه العلامات أن تكون دلالية على التلاعب.

حالها حال جميع الأخبار، يجب دائما الاعتماد على مصدر المحتوى الأصلي وطرح السؤال: هل هو موثوق، أم هو من مصدر غير محدد قابل للتشكيك؟

يجب الاستماع بعناية إلى محتوى الصوت، إذ يمكن لتكنولوجيا الـdeepfake إنشاء صوت واقعي، لكنها قد تحتوي على عيوب مثل النطق الغير طبيعي. هنا، وفي حال الوصول إلى مقاطع فيديو أو تسجيلات صوتية سابقة للفرد المعني، يمكن مقارنة محتوى الـDeep Fake بالمواد الحقيقية للبحث عن اختلافات.

رفع ظهور تكنولوجيا التزييف العميق من ضرورة التحقق من المحتوى وتحفيز التفكير النقدي. لمكافحة انتشار الأخبار الكاذبة، على الفرد أن يكون على علم بالتحديات التي تطرأ نتيجتها واستخدام الأدوات والاستراتيجيات المتاحة لكشفها. في المحصلة، تبقى اليقظة البشرية العامل الحاسم الأساسي في مكافحة الأخبار الكاذبة في عصرنا الرقمي.

المصدر: ميغال حدشيتي

مقالات ذات صلة

زر الذهاب إلى الأعلى