Ayed Alosaimi 🇸🇦
Ayed Alosaimi 🇸🇦

@Ayed_Alosaimi

21 تغريدة 170 قراءة Sep 30, 2019
#ثريد |
تقنية DeepFakes ؟
كل تقنيات #الذكاء_الاصطناعي
التي ظهرت في السنوات الأخيرة الماضية، لا تثير القلق والخوف بقدر ما تثيره تقنية الـ Deep Fake أو ما يعرف بالتزييف العميق!
هذه التقنية يمكن استخدامها لتركيب مقاطع الصوت والصورة على صور معينة لشخص ما بطريقة دقيقة للغاية وبشكل يعجز المستخدم العادي عن تمييز المقطع الصحيح من المزيف.
هناك استخدامات إيجابية لتقنية deepfake مثل صنع الأصوات الرقمية للأشخاص الذين فقدوا أصواتهم،
ومع ذلك، فإن احتمال استخدام هذه التقنية بطريقة مؤذية يثير قلقاً كبيراً، خاصة وأن هذه التقنية أصبحت أكثر دقة عما كانت عليه منذ ظهورها في العام 2017.
تتمتع هذه التقنية اليوم بتقدم هائل في جودة الفيديوات التي تقدمها. فقبل أشهر قليلة، وقع ملايين المستخدمين ضحية مقطع فيديو زائف، لمارك زوكربيرغ، مؤسس فايسبوك، وهو فيديو من إنتاج شابين أميركيين بواسطة هذه التقنية، وهو يدلي بتصريح يعترف فيه بنظرية المؤامرة وسيطرة شركته على العالم.
تقوم هذه التقنية على صنعِ فيديوات زائفة عبر برامج الكمبيوتر من خِلال الذكاء الاصطناعي. يجب أولاً جمع عدد كبير من الصور عن الشخص المستهدف ليتم تعديلها وحجم الوجه بحسب الصور التي تملكها، بعدها تبدأ مرحلة تدريب التطبيق على هذه الصور بجميع تفاصليها (إبتسامة الشخص، كيفية تحريك فمه..)
واتفق الجميع على أنّ هذه التقنية الجديدة من شأنها أن تكون الموجة القادمة في مجال الأخبار الكاذبة Fake News، التي يحفل بها الإنترنت وخاصةً مواقع التواصل الاجتماعي، ليكون الوصول للحقيقة يزداد صعوبةً كلما تقدمنا في المجالات التقنية.
ومع الانفجار الكبير للمعلومات، وعدم تعافي الجميع من ثورة الأخبار الكاذبة Fake News الذي اجتاح الإنترنت، ومحاولة الشركات التقنية بكل جهدها لمحاربتها، نجد أنّ هذا التطور التقني الجديد سيضيف مزيدًا من الأعباء للمستخدم البسيط في تمييز الحقيقي من الزائف في رحلة تصفحه للإنترنت.
حاليًا هنالك عدد من التطبيقات على متجر Google Play، ومتاجر Apple App التي تتيح لك مبادلة وجهك بشخص آخر، حتى سناب شات لديها واحد تطبيق لمبادلة الوجوه مع بعض الفلاتر
يستخدم الكثير من الأشخاص هذه الفلاتر لإنشاء مقاطع فيديو مضحكة على الإنترنت، لكن لا شيء من هذه تبدو حقيقيةً مثل تلك التي تم إنشاؤها بواسطة Deepfakes، وهنا تظهر خطورة هذا الأمر.
فالأمر قد لا يقتصر على بعض الفيديوهات التشهيرية أو المسيئة، وإنما قد يصل لاختراق خصوصية المستخدمين بسبب صورهم المنتشرة على الإنترنت وشبكات التواصل الاجتماعي، مما يعني أن أي مقطع فيديو تراه قد لا يكون حقيقًا بل مزيفًا
بواسطة DeepFakes !
كيف يمكننا إثبات صحة مقاطع الفيديو وضمان الاستخدام الآمن لأدوات الذكاء الاصطناعي؟
يقترح بعض الخبراء أن زيادة الوعي سيكون خطوة أولى مهمة. حيث سيكون تثقيف الناس وتعريفهم بقدرات خوارزميات #الذكاء_الاصطناعي إجراءًا جيدًا لمنع الاستخدامات السيئة لبرامج مثل FakeApp التي لها تأثير واسع النطاق على الأقل في المدى القصير.
وهنا يبرز الحل المثالي وهو استخدام
#تقنية بلوك تشين #Blockchain
التي تُمكنك من تخزين بياناتك عبر الإنترنت دون الحاجة إلى خوادم مركزية. فمن خلال البلوك تشين يتم نسخ كل سجل على العديد من أجهزة الكمبيوتر وربطه بزوج من مفاتيح التشفير
أحدهما عام والآخر خاص، وسيكون صاحب المفتاح الخاص هو المالك الحقيقي للبيانات وليس أجهزة الكمبيوتر التي تخزنها.
وتتم هذه التقنية بعدةِ مراحل، وهي :
- جمع عدد كبير جدًا من الصور للشخصية المراد استخدام صورة وجهها في الفيديوهات.
- التعرف على اتجاه وحجم الوجه بكل دقة لضمان نجاح تغيير الوجوه.
- إمكانية الاستعانة بتقنية histogram of oriented Gardiants، ويرمز لها اختصارًا بـ HOG، ويتمثل دورها بإجراء مقارنات بين البيكسل الموجود في كل صورة مع البيكسل الموجود في الصور المحيطة استعدادًا لرسم منحنى يبدأ من الأقل ظلمة نحو الأكثر ظلمة.
- إجراء تدريب مشفر تلقائي بعد الإنتهاء من استخدام مستخرجات صور الوجوه.
- الانتقال إلى مرحلة الدمج، تستخدم الصورة المستخرجة والمعالجة من auto encoder ووضعها مكان الصورة الأصلية.
- إعادة صنع الفيديو مجددًا بعد استخدام الصورة المعدلة.
- الخوارزمية تحتاج إلى شرح معقد طويل جدًا يصعب تطبيق خطواتها من قِبل أي شخص عادي.
ترتب على استخدام هذه التقنية الكثير من الأثار السلبية، ومنها:
- ازدياد رقعة الفوضى والتشويش نتيجة التزوير القائم على تقنيات الذكاء الاصطناعي.
- احتمالية تزوير رسائل البريد الإلكتروني والمحادثات النصية بالاعتماد على معالجة اللغات الطبيعية والخوارزميات.
- فقدان الثقة في كل ما يمكن مشاهدته نظرًا لتزوير الرسائل الصوتية بالاعتماد على خوارزميات #الذكاء_الاصطناعي .
- تدمير حياة الكثير من الأشخاص بالتسبب لهم بالفضائح الجنسية دون أي حق.

جاري تحميل الاقتراحات...