قدّم باحثان في «فيسبوك»، طريقة تعتمد على الذكاء الاصطناعي، من شأنها كشف عمليات «التزييف العميق» أو «DeepFake»، وهي صور ومقاطع فيديو مزوّرة بحرفية عالية، تجعلها واقعية للغاية، بهدف المساعدة في تحديد مصدرها.
وتطرح عمليات التزييف هذه مشكلة على المواقع الإلكترونية، إذ إنها قد تُستخدم للتلاعب بمستخدمي الإنترنت أو تشويه سمعة الأشخاص، من خلال تركيب مقاطع تُظهرهم يقولون أو يفعلون أموراً لم يقولوها أو يفعلوها حقاً. وتعتمد عمليات التوليف هذه على تقنيات الذكاء الاصطناعي.

بعض الأمثلة عن فيديوات «DeepFake»
هنا نجد الممثل بيل هايدر، يقوم بتقليد صوت الممثل آل باتشينو، لكن صانع هذا المحتوى قام باستخدام تقنية الـ«DeepFake»، وتحوّل وجه هايدر إلى وجه باتشينو.



فيديو آخر مصنوع بشكل احترافي، حيث تم استخدام وجه الممثل توم كروز.



وقال الباحثان لدى «فيسبوك»، تال هاسنر، وشي يين، اللذان عملا على الموضوع مع جامعة ولاية ميشيغن، إن «نظامنا سيسهّل كشف الـDeepFake وتعقّب المعلومات المرتبطة بها».

وتقدّم الطريقة التي أعلن عنها الباحثان «أدوات لتسهيل التحقيق في شأن الأحداث المرتبطة بعمليات تضليل إعلامي منسّقة، تستعين بالتزييف العميق».

ولتطوير هذا النظام، استخدم الباحثان تقنية تسمّى «الهندسة العكسية»، تقوم على تفكيك طريقة صنع منتج ما، وفي هذه الحالة، مقطع فيديو أو صورة.

وترصد البرمجية التي يستعين بها النظام أيّ ثغرات على عملية المونتاج تؤثّر على البصمة الرقمية للصور.

وفي مجال التصوير الفوتوغرافي، تتيح هذه البصمة التعرّف إلى الكاميرا المستخدمة. وفي المعلوماتية، يمكن لهذه التقنية «التعرّف إلى النظام المستخدم في صنع عمليات التزييف»، وفق الباحثَين.

وقدّمت شركة «مايكروسوفت»، العام الماضي، برمجية من شأنها المساعدة في رصد عمليات الـ«DeepFake» في الصور أو الفيديوات، وهي من البرامج الكثيرة المصممة للتصدي للتضليل الإعلامي قبل الانتخابات الرئاسية الأميركية.

وفي 2019، عمّمت «غوغل» آلاف مقاطع الفيديو المزورة على أيدي أفراد من طواقم عملها بأسلوب الـ«DeepFake»، بهدف وضعها في تصرّف الباحثين الراغبين في تطوير أساليب لكشف الصور التي خضعت للتلاعب.

اشترك في «الأخبار» على يوتيوب هنا