هل شاهدت من قبل اعتذار مؤثر لجون سنو عن النهاية الكئيبة لـمسلسل Game of Thrones ؟ و شاهدات مارك زوكربيرغ يتفاخر بـ “السيطرة الكاملة على مليارات من البيانات المسروقة من مستخدمين فيس بوك و واتساب “؟ او يمكن شاهدات تقرير على قناة العربية يتحدث عن ظهور توم كروز بفديو مفبرك شديد الواقعية لدرجة أنها خدعت بعض الأشخاص في البداية وجعلتهم يعتقدون أن النجم الهوليوودي قد انضم فعلاً الى تطبيق التواصل TikTok، حيث جذب الحساب مئات الآلاف من المتابعين بعد نشر القليل مقاطع فيديو.
أنت الان أمام تقنية التزييف العميق او المعروف بـ deepfake هذه التقنية اشغلت الكثير حول العالم لخطورتها و لقدرتها الكبيرة على فبركة مقاطع فديو لأي شخص لدرجة وضع مقاطع فديو مفبركة إباحية لنجوم كبار , برنامج تغير الوجه احد اكثر البرامج التي تثير المخاوف.
ماهي تقنية Deepfake ؟
تستخدم تقنية deepfakes شكلاً من أشكال الذكاء الاصطناعي يسمى التعلم العميق لعمل مقاطع لأحداث مزيفة ، ومن هنا جاء الاسم deepfake. هل تريد تقويل سياسي بمقولات تريدها.! ، أو جعل نجم فيلمك المفضل يقوم بما تريد من خلال مقطع فديو ، أو الرقص مثل المحترفين؟ 😆 .
الديب فيك تقنية خطيرة تجعلك للوهله الأولي تظن انك امام الشخص الحقيقي 100% مما يجعل الأمر خطير لكن من جانب اخر يمكن للبعض الاستفادة من هذه التنقية الديب فيك من خلال صنع فديوهات لأحبابهم و أقاربهم من فارقو الحياة.
ظهور و تطوير تقنية التزيف العميق “deep-fake ” العام 2017 ظهر للوجود تطبيق او برنامج سانثيسيزينغ أوباما “Synthesizing Obama” الذي انتشر فيديو للرئيس الأمريكي السابق أوباما وهوَ يتحدث بصوت عالي حول تقنية التزيف العميق و يحاول في الفديو شرح مخاطرها وهو في الواقع لم يقوم به الرئيس الأمريكي السابق اوباما نهائياً . عرفت هذه التقنية تطور إضافي بعد ظهور برنامج فايس تو فايس Face2Face الذي صدر العام 2016 .
إقراء ايضاءً : أفضل برنامج تغيير الوجه DeepFakes قائمة مميزة بأفضل التطبيقات.!!
كيف يمكن اكتشاف الفديو المزيف DeepFake .!
نظرًا لأن التزييف العميق أصبح منتشر ، سيحتاج المجتمع بشكل جماعي على الأرجح إلى التكيف مع اكتشاف مقاطع الفيديو المزيفة بنفس الطريقة التي أصبح مستخدمو الإنترنت الآن على استعداد لاكتشاف أنواع أخرى من الأخبار المزيفة مثل الصور المعدله كذلك. في كثير من الأحيان ، كما هو الحال مع الأمن السيبراني ، يجب أن تظهر المزيد من تقنيات أكتشاف التزييف العميق من أجل اكتشافها ومنعها من الانتشار حتي لا تتسبب بمزيد من الأضرار النفسية و الشخصية.
مؤشرات مهمه لأكتشاف هل الفديو مزيف ام لا ؟
هنا عوامل قد تساعدك لأكتشاف هل الفديو مزيف ام لا .! و من أهم هذه العوامل التي يجب ان تلاحظها التالي :
- تواجه تقنية التزييف العميق الحالية مشكلة في تحريك الوجوه بشكل واقعي ، والنتيجة هي فيديو لا يغمز او يرمش فيه الهدف ابداً او حتي بدون شكل واقعي.!، أو يمكن ان يرمش كثيرًا أو بشكل غير طبيعي. ومع ذلك ، بعد أن نشر باحثون في جامعة ألباني دراسة تكشف عن هذا العيب المهم بما يتعلق بالرمش ، تم إطلاق تقنية التزييف العميق الجديدة التي لم تعد تعاني من هذه المشكلة.
- ابحث عن مشاكل الجلد أو الشعر أو الوجوه التي تبدو أكثر ضبابية من البيئة التي توجد فيها. قد يبدو التركيز ضعيفًا بشكل غير طبيعي.
- هل تبدو الإضاءة غير طبيعية؟ غالبًا ما تحتفظ خوارزميات التزييف العميق بإضاءة المقاطع التي تم استخدامها كنماذج للفيديو المزيف ، وهو تطابق ضعيف مع الإضاءة في الفيديو المستهدف.
- قد لا يبدو الصوت متطابقًا مع الشخص ، خاصةً إذا كان الفيديو مزيفًا ولكن لم يتم التلاعب بالصوت الأصلي بعناية.
أفضل الشركات الناشئة التي تتعامل مع تقنية التزيف العميق
مقاطع الفيديو والصور المزيفة التي تبدو واقعية جدًا ويتم إنتاجها باستخدام خوارزميات تستند إلى الذكاء الاصطناعي (AI). في الآونة الأخيرة ، اكتسبت ظاهرة التزييف العميق شهره من خلال الوسائط الترفيهية الأخرى. ومع ذلك ، فإن احتمال إساءة الاستخدام مرتفع للغاية ، مما يدفع العديد من الشركات إلى إيجاد حلول لمواجهة هذه الوسائط المزيفة. على وجه الخصوص ، يحتاج قطاع التأمين الى حلول لاكتشاف التزييف العميق والتأكد من صحتها.
OARO – Unfakeable Records
قدم الشركة الإسبانية الناشئة OARO للشركات أدوات متنوعة لمصادقة الهوية الرقمية والامتثال والوسائط والتحقق منها. يقوم OARO Media بإنشاء مسار بيانات غير قابل للتغيير يسمح للشركات والهيئات الإدارية والمستخدمين الفرديين بمصادقة أي صورة أو مقطع فيديو. يُنشئ تطبيق الهاتف المحمول الخاص بالشركة الناشئة صورًا ومقاطع فيديو موثوقة مدمجة مع سجلات هوية المستخدم والمحتوى والطابع الزمني وإحداثيات نظام تحديد المواقع العالمي (GPS).
Sentinel – Tackling Information Warfare
Sentinel هي شركة ناشئة من إستونيا تساعد الحكومات والشركات الإعلامية في الدفاع ضد المحتوى الإعلامي المزيف. تقوم الشركة بأتمتة مصادقة الوسائط الرقمية عن طريق التحقق مما إذا تم إنشاء أي وسائط بواسطة الذكاء الاصطناعي. يعتمد نموذج الاكتشاف على نهج الدفاع في العمق (DiD). يستخدم هذا النموذج دفاعًا متعدد الطبقات يشتمل على قاعدة بيانات كبيرة من المصنفات العميقة والشبكات العصبية لاكتشاف التزييف العميق بدقة.
Sensity – Visual Threat Intelligence Platform
توفر شركة Sensity الهولندية نظامًا أساسيًا لذكاء التهديدات المرئية وواجهة برمجة التطبيقات (API) لاكتشاف التزييف العميق ومكافحته. تقوم Sensity بجمع معلومات تفصيلية عن التهديدات المرئية من مئات المصادر عبر شبكة الويب المفتوحة والمظلمة. ثم تكتشف خوارزميات التعلم العميق للشركة الوسائط المرئية الضارة وتكشف عن رؤية شاملة للمخاطر المرتبطة بالمحتوى السمعي البصري الذي يستهدف الأفراد والشركات. أجهزة الكشف عن الذكاء الاصطناعي في Sensity قادرة على التعرف على تقنيات التلاعب والتوليف للوسائط القائمة على الذكاء الاصطناعي. يتضمن هذا أيضًا الوجوه البشرية المزيفة في ملفات تعريف الوسائط الاجتماعية ومقايضة الوجوه الواقعية في مقاطع الفيديو.
Quantum Integrity – AI-Powered Deep Fake Detection
تستخدم شركة Quantum Integrity السويسرية الناشئة تقنية التعلم العميق الحاصلة على براءة اختراع للكشف عن تزوير الصور ومقاطع الفيديو المزيفة. خوارزميات التشغيل قابلة للتخصيص لحالات الاستخدام المختلفة واكتشاف الفديوهات المزيفه المصنوعة باستخدام برامج وطرق مختلفة. يمكّن هذا الحل الشركات من توفير الوقت والمال ، وتقليل الاحتيال ، كما يتيح اتخاذ قرارات مبسطة. تتضمن بعض التطبيقات الإبلاغ عن الحوادث والمستندات المزورة ومقاطع الفيديو المزيفة.
Group Cyber ID (GCID) – Digital Media Forensics
Group Cyber ID هي شركة هندية ناشئة تقدم حلولًا للطب الشرعي الرقمي للصور ومقاطع الفيديو والصوت ، من بين المكونات الرقمية الأخرى. تدير الشركة الناشئة استراتيجية أمان متعددة الطبقات من التقنيات والإجراءات والممارسات في الطب الشرعي الرقمي والاكتشاف الإلكتروني والدفاع السيبراني. يصادق الحل على التكوين الرقمي للمؤسسة ويحدد نقاط الضعف والمخاطر في البيانات الداخلية والخارجية. يعمل الحل على تأمين الشبكات والأجهزة والبرامج والبيانات من مجموعة من الهجمات الضارة.
عالمنا العربي و تقنية التزيف العميق .!
للاسف الشديد الى حدود الساعه لا توجد دراسات عربية و أبحاث و تقنيات لكيفية مواجهة هذه التقنية التي قد تكون سبب في جريمة قتل او حكم قضائي ظالم او خراب بيوت.!! التقنية خطيرة و اذا لم تجد مؤسسات و شركات متخصصه في الكشف عن عملية التضليل و الخداع فقد نشهد حالات خطيرة لا سمح الله .