Bushra Alahmadi
Bushra Alahmadi

@BushraAlAhmadi

13 تغريدة 32 قراءة Jun 16, 2020
@ciag_sa #نورنا_بخمسه
هناك تزايد من قبل جميع الجهات على طلب مختصين بالأمن السيبراني ممن لديهم قدرات في تحليل البيانات الضخمة وتعلم الآلة. أرى أن دمج التخصصين AI + Security جداً مطلوب في جميع قطاعات الأمن السيبراني مثل DFIR, SOC.
@ciag_sa في مجال الأمن السيبراني تساعد التقنيات المدعمة بعلم الآلة المحلّلين الأمنيين بالقيام بالبحث في حزمة البَيانات عن علامات أو دلائل تدل على مخاطر قد تضر بالمنشأة. و بالطبع هذا يقلّل من الوقت الذي يستغرقه المحلّلون الأمنيون لاتخاذ القرارات الحاسمة والاستجابة للمخاطر ومعالجتها.
@ciag_sa *النصيحة الأولى:
يجب تنمية قدراتك التقنية والفهم العميق لكيفية حدوث الاختراقات وكيف تعمل مثلا البرمجيات الخبيثة. من "best practice" في تعلم الآلة وهو الاستعانة بالخبراء في مجال المشكلة التي نرغب حلها. فمعرفة كيفية حدوث الهجمات يساعد في هندسة وبناء ML models فعالة.
@ciag_sa وهذا يكون بالتطبيق العملي (hackthebox.eu) والمشاركة بمسابقات التقاط الأعلام (captf.com ) وحضور المؤتمرات مثلا(*BlackHat) وقراءة المدونات (malware-traffic-analysis.net)
* هناك منح للطلاب لحضور( BlackHat ) وممكن التقديم عليها هنا: blackhat.com
@ciag_sa * النصيحة الثانية:
استثمار الوقت في معرفة خوارزميات تعلم الآلة (Machine Learning -ML) والطريقة الصحيحة لبناء ال ML model. تتوفر العديد من المصادر والدورات في تعلم الالة مثل:
bit.ly
bit.ly
@ciag_sa وبناء "ML models" له أسس وقواعد لابد من اتباعها تفادياً لتحديات مثل(bias, over fitting) وغيرها. أدوات الذكاء الاصطناعي وعلم الالة عديدة مثل (TensorFlow, PyTorch). والان يسهل التوصل لهذه الأدوات و استخدامها وتعلمها ، ولكن طريقة الاستخدام الصحيحة لهذه الأدوات هو الأهم.
@ciag_sa *النصيحة الثالثة:
ممكن البدء في بناء تطبيقات خاصة بالأمن السيبراني عن طريق استخدام بيانات (datasets) لهجمات سيبرانية وبناء تطبيقات قادرة على اكتشافها. يوجد هنا العديد من البيانات التي ممكن استخدامها: bit.ly
و bit.ly
@ciag_sa هناك تحديات في تطبيقات علم الآلة في الأمن السيبراني يجب معرفتها وتجنبها. أنصح بقراءة هذا البحث عن تحديات استخدام علم الآلة في NIDS:
bit.ly
كما قمت ببحث عن اكتشاف البرمجيات الخبيثة باستخدام علم الآلة. يمكن الحصول على الورقة وال tool هنا: bit.ly
@ciag_sa *النصيحة الرابعة:
قراءة الأبحاث العلمية في هذا المجال تساعد على فهم الطريقة الصحيحة لبناء هذه الخوارزميات والتعرف على التوجهات المستقبلية في تطبيقات علم الآلة حيث أن هناك تطور مستمر في الأبحاث في هذا الشأن مثل Adversarial ML أو هجمات الخصوم.
@ciag_sa هجمات الخصوم هي أمثلة مصاغة بعناية من قبل المهاجمين و مصممة لتسبب أخطاء في التنبؤات التي تقوم بها تطبيقات علم الآلة. فيحاول فيها المهاجمون الى خداع نماذج تعلم الآلة عن طريق الإدخال المتعمد للبيانات المضللة (ما يسمى تسمم البيانات data poisoning).
@ciag_sa *النصيحة الخامسة:
كن مطّلع ليس فقط على الجديد في تعلم الالة (مثلا Cognitive Security) بل أيضاً تحدياتها. تعلم الآلة سلاح ذو حدين! فأدوات تعلم الآلة ليست فقط متاحة لمن هم في خط الدفاع والحماية من الاختراقات، ولكن أيضًا للمهاجمين. مثال على ذلك الDeepFakes
bit.ly
@ciag_sa مثال آخر في 2017، اكتشفت شركة أمنية هجومًا سيبراني استخدم فيها برنامج خبيث مدعم بتعلم الآلة لمراقبة وتعلم أنماط سلوك الموظفين- كتعاملاتهم الالكترونية واستخدامهم للانترنت وغيرها. فاستطاع البرنامج تعلم هذه الأنماط واستخدام نفس النمط في الهجمة.
@ciag_sa فممكن بناء برامج خبيثة مدعمة بتعلم الالة قادرة على تعلم محاكاة السلوكيات--مثلا التعرف على نمط الكتابة للموظف وإرسال رسائل بريد إلكتروني ضارة بالنيابة عنه.
فمصادر تعلم الالة متاحة بشكل كبير ومثل ما يمكن استخدامها للدفاع فإنه يمكن استخدامها من قبل المهاجمين بالهجوم!

جاري تحميل الاقتراحات...