@ciag_sa #نورنا_بخمسه
هناك تزايد من قبل جميع الجهات على طلب مختصين بالأمن السيبراني ممن لديهم قدرات في تحليل البيانات الضخمة وتعلم الآلة. أرى أن دمج التخصصين AI + Security جداً مطلوب في جميع قطاعات الأمن السيبراني مثل DFIR, SOC.
هناك تزايد من قبل جميع الجهات على طلب مختصين بالأمن السيبراني ممن لديهم قدرات في تحليل البيانات الضخمة وتعلم الآلة. أرى أن دمج التخصصين AI + Security جداً مطلوب في جميع قطاعات الأمن السيبراني مثل DFIR, SOC.
@ciag_sa في مجال الأمن السيبراني تساعد التقنيات المدعمة بعلم الآلة المحلّلين الأمنيين بالقيام بالبحث في حزمة البَيانات عن علامات أو دلائل تدل على مخاطر قد تضر بالمنشأة. و بالطبع هذا يقلّل من الوقت الذي يستغرقه المحلّلون الأمنيون لاتخاذ القرارات الحاسمة والاستجابة للمخاطر ومعالجتها.
@ciag_sa *النصيحة الأولى:
يجب تنمية قدراتك التقنية والفهم العميق لكيفية حدوث الاختراقات وكيف تعمل مثلا البرمجيات الخبيثة. من "best practice" في تعلم الآلة وهو الاستعانة بالخبراء في مجال المشكلة التي نرغب حلها. فمعرفة كيفية حدوث الهجمات يساعد في هندسة وبناء ML models فعالة.
يجب تنمية قدراتك التقنية والفهم العميق لكيفية حدوث الاختراقات وكيف تعمل مثلا البرمجيات الخبيثة. من "best practice" في تعلم الآلة وهو الاستعانة بالخبراء في مجال المشكلة التي نرغب حلها. فمعرفة كيفية حدوث الهجمات يساعد في هندسة وبناء ML models فعالة.
@ciag_sa وهذا يكون بالتطبيق العملي (hackthebox.eu) والمشاركة بمسابقات التقاط الأعلام (captf.com ) وحضور المؤتمرات مثلا(*BlackHat) وقراءة المدونات (malware-traffic-analysis.net)
* هناك منح للطلاب لحضور( BlackHat ) وممكن التقديم عليها هنا: blackhat.com
* هناك منح للطلاب لحضور( BlackHat ) وممكن التقديم عليها هنا: blackhat.com
@ciag_sa وبناء "ML models" له أسس وقواعد لابد من اتباعها تفادياً لتحديات مثل(bias, over fitting) وغيرها. أدوات الذكاء الاصطناعي وعلم الالة عديدة مثل (TensorFlow, PyTorch). والان يسهل التوصل لهذه الأدوات و استخدامها وتعلمها ، ولكن طريقة الاستخدام الصحيحة لهذه الأدوات هو الأهم.
@ciag_sa *النصيحة الرابعة:
قراءة الأبحاث العلمية في هذا المجال تساعد على فهم الطريقة الصحيحة لبناء هذه الخوارزميات والتعرف على التوجهات المستقبلية في تطبيقات علم الآلة حيث أن هناك تطور مستمر في الأبحاث في هذا الشأن مثل Adversarial ML أو هجمات الخصوم.
قراءة الأبحاث العلمية في هذا المجال تساعد على فهم الطريقة الصحيحة لبناء هذه الخوارزميات والتعرف على التوجهات المستقبلية في تطبيقات علم الآلة حيث أن هناك تطور مستمر في الأبحاث في هذا الشأن مثل Adversarial ML أو هجمات الخصوم.
@ciag_sa هجمات الخصوم هي أمثلة مصاغة بعناية من قبل المهاجمين و مصممة لتسبب أخطاء في التنبؤات التي تقوم بها تطبيقات علم الآلة. فيحاول فيها المهاجمون الى خداع نماذج تعلم الآلة عن طريق الإدخال المتعمد للبيانات المضللة (ما يسمى تسمم البيانات data poisoning).
@ciag_sa مثال آخر في 2017، اكتشفت شركة أمنية هجومًا سيبراني استخدم فيها برنامج خبيث مدعم بتعلم الآلة لمراقبة وتعلم أنماط سلوك الموظفين- كتعاملاتهم الالكترونية واستخدامهم للانترنت وغيرها. فاستطاع البرنامج تعلم هذه الأنماط واستخدام نفس النمط في الهجمة.
@ciag_sa فممكن بناء برامج خبيثة مدعمة بتعلم الالة قادرة على تعلم محاكاة السلوكيات--مثلا التعرف على نمط الكتابة للموظف وإرسال رسائل بريد إلكتروني ضارة بالنيابة عنه.
فمصادر تعلم الالة متاحة بشكل كبير ومثل ما يمكن استخدامها للدفاع فإنه يمكن استخدامها من قبل المهاجمين بالهجوم!
فمصادر تعلم الالة متاحة بشكل كبير ومثل ما يمكن استخدامها للدفاع فإنه يمكن استخدامها من قبل المهاجمين بالهجوم!
جاري تحميل الاقتراحات...