تم الكشف عن أداة Deepfake من Microsoft
طورت Microsoft أدوات لاكتشاف التزييف العميق (الصور التي تم التلاعب بها بواسطة الكمبيوتر والتي تم فيها استبدال صورة شخص بآخر).
يحلل البرنامج الصور ومقاطع الفيديو لإعطاء درجة ثقة فيما إذا كان من المحتمل أن تكون المادة مصطنعة. تقول الشركة إنها تأمل أن تساعد التكنولوجيا في "مكافحة المعلومات الخاطئة".
يقول أحد الخبراء إن تقنية deepfake تتقدم بسرعة كبيرة لدرجة أنها تخاطر بأن تصبح قديمة الطراز بسرعة. لمعالجة هذا الأمر ، أعلنت Microsoft أيضًا عن نظام آخر يسمح لمنتجي المحتوى بإضافة رموز مخفية إلى لقطاتهم للإشارة بسهولة إلى التغييرات اللاحقة.
البحث عن تغييرات الوجه
ظهرت تقنية Deepfakes في أوائل عام 2018 بعد أن طبق أحد المطورين تقنيات ذكاء اصطناعي متطورة لإنشاء برنامج يمكن أن يحل محل وجه شخص بآخر.
عملت العملية من خلال تغذية الكمبيوتر بعدد كبير من الصور الثابتة لشخص واحد ولقطات فيديو لشخص آخر. ثم استخدم البرنامج هذا لإنشاء مقطع فيديو جديد يظهر وجه الأول بدلاً من الأخير ، باستخدام نفس تعابير الوجه ، ومزامنة الشفاه ، وحركات أخرى.
ومنذ ذلك الحين ، تم تبسيط العملية ، مما جعلها متاحة لعدد أكبر من المستخدمين وتتطلب عددًا أقل من الصور للعمل.
هناك بعض التطبيقات التي لا تتطلب سوى صورة رمزية واحدة لاستبدال وجه نجم الفيلم بواجهة مستخدم لمقطع أفلام هوليوود.
ومع ذلك ، هناك مخاوف من إساءة استخدام هذه العملية لإنشاء شرائح مضللة يقول فيها المشاهير أو يتصرفون بطرق لم تحدث أبدًا ، لتحقيق مكاسب سياسية أو غيرها.
في وقت سابق من هذا العام ، حظر Facebook التزييف العميق الذي يمكن أن يجعل الناس يعتقدون أنهم قالوا شيئًا لم يقلوه. اتبع Twitter و TikTok لاحقًا قواعد مماثلة خاصة بهما.
تعمل أداة Microsoft Video Authenticator من خلال محاولة اكتشاف إشارات البكسل التي تشير إلى أن الصورة من صنع الإنسان وقد لا تكون مرئية للعين البشرية.
وتشمل هذه البيكسلات الباهتة أو الرمادية عند الحدود حيث يتم دمج النسخة التي تم إنشاؤها بواسطة الكمبيوتر لوجه الموضوع مع وجه جسم الموضوع الأصلي.
لإنشائه ، طبقت الشركة تقنيات التعلم الآلي على مجموعة بيانات عامة من حوالي 1000 تسلسل فيديو مزيف عميق ، ثم اختبرت النموذج الناتج مقابل قاعدة بيانات كبيرة مبنية على Facebook لمقايضة الوجوه.
قال المستشار التكنولوجي إن التزييف العميق لا يزال نادرًا نسبيًا في هذه المرحلة ، حيث تحتوي معظم المقاطع التي تم التلاعب بها على إعادة تحرير غير دقيقة قام بها البشر ، لكنه رحب بتدخل Microsoft.
ديب فيكس و إنفوكاليبس.
"ولكن من المتوقع أن تصبح الوسائط التركيبية موجودة في كل مكان في غضون ثلاث إلى خمس سنوات ، لذلك نحن بحاجة إلى تطوير هذه الأدوات في المستقبل.
"ولكن مع الاكتشاف الأفضل تأتي قوة تكوين أفضل. لا تستطيع Microsoft تشغيل أداة واحدة يمكنها اكتشاف جميع أنواع التلاعب بالفيديو."
أخبار بصمات الأصابع
تعترف Microsoft بهذا التحدي. على المدى القصير ، تأمل أن يساعد منتجها الحالي في التعرف على التزييف العميق قبل الانتخابات الرئاسية الأمريكية في نوفمبر.
بدلاً من إتاحته للجمهور ، يتم تقديمه فقط من خلال منظمة خارجية ، مما يجعله متاحًا مجانًا لوسائل الإعلام الإخبارية والحملات السياسية.
هذا لمنع الأفراد الخبثاء من الحصول على الشفرة واستخدامها لتعليم مولدات التزييف العميق كيفية التحايل عليها.
لمواجهة التحديات طويلة المدى ، تعمل Microsoft مع المؤسسات الإعلامية مثل BBC لدعم Project Origin. Project Origin عبارة عن مبادرة "لوضع علامة" على المحتوى عبر الإنترنت بحيث يمكن اكتشاف التلاعب بالمواد تلقائيًا.
تقوم شركات التكنولوجيا الأمريكية بذلك في عملية من جزأين.
أولاً ، أنشأنا أداة عبر الإنترنت لإضافة بصمات أصابع رقمية إلى البيانات الوصفية للوسائط في شكل شهادات وقيم تجزئة.
ثانيًا ، أنشأنا قراءًا لرؤية الدليل على أن بصمات الأصابع قد تأثرت بتغييرات الجهات الخارجية للمحتوى.
وفقًا لمايكروسوفت ، سيتمكن الأشخاص بعد ذلك من استخدام قارئ في شكل ملحق متصفح للتحقق من أن الملف أصلي ومن قام بإنشائه.
يعد تزوير الصور ومقاطع الفيديو أمرًا مهمًا للغاية حيث يتم نشر المعلومات المضللة غالبًا على وسائل التواصل الاجتماعي.
لكن التكنولوجيا المتقدمة والتزييف العميق اليوم ليست ضرورية دائمًا. غالبًا ما تكون تقنيات التحرير البسيطة هي الخيار المفضل.
ومن الأمثلة على ذلك مقطع الفيديو الذي تم التلاعب به مؤخرًا للمرشح الرئاسي الأمريكي جو بايدن ، والذي تمت مشاهدته أكثر من مليوني مرة على وسائل التواصل الاجتماعي.
يظهر المقطع مقابلة تلفزيونية يبدو فيها بايدن نائماً. لكنها كانت مزيفة. مقطع المضيف كان من مقابلة تلفزيونية أخرى مع إضافة تأثير الشخير.
وفي الوقت نفسه ، أصبحت الصور التي يتم إنشاؤها بواسطة الكمبيوتر لوجوه الأشخاص سمة مشتركة لحملات التدخل الأجنبي المعقدة المستخدمة لجعل الحسابات المزيفة تبدو أكثر واقعية.
هناك شيء واحد مؤكد: المزيد من الطرق لاكتشاف الوسائط التي تم التلاعب بها أو التلاعب بها ليس بالأمر السيئ في مكافحة المعلومات المضللة عبر الإنترنت.
تعليقات
إرسال تعليق