كتب شادي عواد في “الجمهورية”:
تطورت برامج الكمبيوتر والذكاء الإصطناعي لدرجة أنه أصبح بالإمكان دَمج الصور ومقاطع الفيديو لشخصيةٍ ما من أجل إنتاج مقطع فيديو جديد قد يبدو للوهلة الأولى أنه حقيقي، لكنه في واقع الأمر مزيّف.
بعد التطوّر الذي شهده العالم في مجال التصوير والذكاء الإصطناعي، ظهرت مشكلة جديدة وهي قدرة أيّ كان من خلال تطبيقات مخصّصة من تزييف أي فيديو، وتبديل وجوه الأشخاص بطريقة من الصعب جداً كشفها.
ألغوريتمات متطورة
يعتمد التزييف العميق للفيديوهات، أو ما يُعرف بالـ»Deep Fake»، على ألغوريتمات متطورة جداً، يمكنها من خلال صورتين أو ثلاث للشخص أن تقوم برَسم ملامحه بطريقة ثلاثية الأبعاد لشخص ما، ومن ثم إسقاطها على أي فيديو لشخص ثانٍ، ليظهر الفيديو الجديد وكأنه فعلاً للشخص الذي تم إسقاط ملامحه على الفيديو.
في البداية كان من الممكن ملاحظة بعض الفروقات في الحركة، أما الآن ومع تطور هذه التقنية، أصبح من الصعب جداً تحديد ما إذا مكان الفيديو مزيفاً أم لا بمجرّد مشاهدته. وفي هذا السياق، حذّر العديد من المحللين من إمكانية استغلال تقنية التزييف العميق في المنافسات السياسية خلال الانتخابات في الدول، أو لتشويه سمعة شخص ما. ويرى العديد منهم إمكانية تزييف الفيديوهات والمقاطع الصوتية باستخدام الذكاء الإصطناعي لإظهارهم وهم يقولون أو يفعلون شيئا ًغير حقيقي يهدد مستقبلهم. وبالفعل، استعملت هذه التقنية الحديثة في إنشاء مقاطع فيديو إباحية مزيفة لعدد من المشاهير، كما استخدمت في أحيان أخرى لخَلق أخبار كاذبة.
ظاهرة خطيرة
وكشفت تقارير كانت قد نُشرت مؤخراً عن مواجهة علماء من شركتي مايكروسوفت وفيسبوك لظاهرة خطيرة، ألا وهي التزييف العميق لمقاطع الفيديو. وجمعت الشركتان علماء من الجامعات والمنظمات وعمالقة التكنولوجيا، من أجل ابتكار تقنية لاكتشاف التزييف العميق، في محاولةٍ لمنع استخدامها لنشر الوسائط الخبيثة والمعلومات المضللة. وتم الاعتماد أيضاً على الذكاء الإصطناعي للمساعدة في الكشف عن مقاطع الفيديو المزيفة. وعلى رغم ذلك، حذّرت مجموعة من علماء الكمبيوتر من أنّ أنظمة الذكاء الاصطناعي المدرّبة للكشف عن التزييف العميق، لا يزال من الممكن خداعها بسهولة، ولعل أبرز مثال على ذلك هو تزييف خطاب للرئيس الأميركي الأسبق باراك أوباما، الذي يعتذر فيه عن أخطائه السابقة، والذي انتشر في فترة سابقة. وأظهروا كيف يمكن خداع أدوات الكشف عن طريق إدخال الغوريتمات يُطلق عليها اسم «الأمثلة المتناقضة» في إطار فيديو، الأمر الذي يشَوّش عمل الذكاء الإصطناعي عند محاولته اكتشاف عملية التزييف. وبذلك، سيظنّ الذكاء الإصطناعي أنّ مقاطع الفيديو مُقنعة ولا تتضمّن نُسَخاً لوجه شخص آخر مكان الشخص الحقيقي. وأوضح العلماء أنّ الأمثلة العدائية تتضمن فيديوهات تمّ التلاعب بها، يمكن أن تجعل أنظمة الذكاء الإصطناعي ترتكب خطأ عند تحليلها، تماماً مثل معظم أجهزة الكشف عن طريق تَتبّع الوجوه في مقاطع الفيديو.