نوّاف السويّد
نوّاف السويّد

@ElZeeRX

8 تغريدة 3 قراءة Apr 17, 2023
وبالنسبة للناس المحترمة راح نوضح الكلام بخصوص كيفية عمل المطابقة للصور الإباحية في الأجهزة بميزة CSAM:
كل جهاز بنظام iOS 15 و iPadOS 15 سيكون منضمن مجموعة من قواعد البيانات التي تسمى NeuralHash هي عبارة عن لوغارثمات لمطابقة التعاريف للصور من منظمة NCMEC مع الصور في المكتبة.
ميزة الكشف عن الصور تعمل مع مكتبة الصور في iCloud فقط ولا تعمل مع مكتبة الصور في الأجهزة.
“تم تصميم هذه الميزة لاكتشاف مجموعات من صور CSAM غير القانونية والمعروفة المخزنة على خوادم آبل في مكتبات صور iCloud، مع عدم معرفة أي معلومات حول الصور غير صور المصنفة كـ CSAM.”
طريقة عمل CSAM:
“بدلاً من مسح الصور في السحابة، يقوم النظام بإجراء المطابقة على الجهاز باستخدام قاعدة بيانات من تجزئات صور CSAM المعروفة المقدمة من NCMEC وغيرها من منظمات سلامة الأطفال.”
آبل تقوم بتخزين تجزئات قاعدة البيانات في الجهاز ولاتقوم بعمل مسح للصور في السحابة ولاالجهاز.
ترجمة طريقة عمل الكشف CSAM
باختصار:
-يتم وضع رموز للصور
-يتم مطابقة الرموز مع قاعدة البيانات في الجهاز
-يتم انشاء غطاء حماية safety voucher
-يتم الرفع على السحابة
-إذا تخطى الحد المسموح لعدد الصور المتطابقة مع قاعدة البيانات يتم المعاينة يدويًا من آبل.
هذا تفصيل عن كيفية عمل الـ NeuralHash في الجهاز للمحافظة على سرية البيانات وخصوصية العميل.
وبسؤالي من أين أتت معلومة الـ 30 صورة، كنت أريد معرفة المصدر، ووجدتها في ملفات آبل كالتالي:
بمعنى أن الحد الأولي للإنتقال للخطوة التالية وهي فك التشفير عن الصور ومعاينتها يدويًا من آبل تتم بعد مطابقة 30 صورة أو أكثر وهذا الشيء قابل للتغيير.
ختامًا هذه مقابلة لغريك فيديريكي يتحدث بها عن عمل الخدمة وكيف أنها تختلف عن بقية الشركات التي تقوم بمسح جميع الصور في السحابة الخاصة بها بعكس هذه الخدمة.
youtu.be

جاري تحميل الاقتراحات...