13 تغريدة 24 قراءة Jul 14, 2024
كيف تقوم قوات الاحـتـلال الإسـرائـيلية بتحديد مناطق القصف في غــزة؟
لن تصدق كيف يتم ذلك، وهو سبب عدد الشـهـداء الهائل.
تعرف على اغبى دولة وحكومة في العالم.
عاشت هبة في شمال غزة وفي 11 أكتوبر عام 2023، نزحت هي وعائلتها عن منزلها إلى منطقة أخرى. بحلول فبراير عام 2024، تدمر منزلها بالكامل دون أي سبب يذكر
وخلال الأشهر القليلة الماضية، وجد الصحفيون أن الكثير من الدمار الذي حدث في غزة منذ هجمات 7 أكتوبر تم تمكينه وتوجيهه بواسطة الذكاء الاصطناعي.
بعد استشهاد أكثر من 34 ألف فلسـطـيـنـي، مقارنةً بضربات إسرائيل عام 2014 التي خلفت قرابة 2000 ضحية، يتضح وجود سبب خفي
ما هو دور الذكاء الاصطناعي في الموضوع؟
هو نظام يحدد أهداف القصف في غزة للمنشآت والمباني. يعمل النظام جنبًا إلى جنب مع أدوات الذكاء الاصطناعي الأخرى التي تجمع البيانات عن المواطنين والمناطق هناك، ثم يتم إرسالها إلى أداة أخرى تقوم بفرزها إلى أربع تصنيفات:
الأول: أهداف تكتيكية (مثل خلايا مسلحة أو مستودعات أسلحة)
الثاني: أهداف تحت الأرض (مثل الأنفاق تحت الأرض)
الثالث: منازل عائلات أفراد قوات حماس
الرابع: أهداف غير عسكرية (مباني سكنية شاهقة يسكنها عشرات المدنيين، يطلق عليها "أهداف القوة")
بعد جمع كل هذه البيانات، يتم إرسالها إلى الوحدة الأساسية التي تُسمى بـ "الإنجيل" أو"Gospel". يقوم "الإنجيل" بإعطاء الاقتراحات للأماكن التي يجب قصفها. ينتج هذا النظام أهدافًا بشكل أسرع من قدرة الإنسان.
في أول خمسة أيام من الحرب، كان نصف الأهداف التي تم تحديدها من فئة "أهداف القوة". كشفت التحقيقات أن سبب قصف "أهداف القوة" هو ممارسة الضغط المدني على حماس. هنا نعرف سبب قصف بيت هبه، فمن الواضح أنه كان هدفًا من التصنيف الرابع تم اختياره بواسطة نظام "الإنجيل"
لا تنتهي القصة هنا. هناك نظام آخر أكثر غموضًا وسرية يُدعى "لافندر"، والذي تم تصميمه لاستهداف أشخاص معينين.
مع بداية الحرب، جمع نظام "لافندر" العديد من البيانات التاريخية ومعلومات من عمليات المراقبة (من كاميرات المراقبة على نقاط التفتيش وغيرها) لتحديد ما يصل إلى 37 ألف هدف لحــماس.
تقول المصادر إن 10% من الأهداف المحددة غالبًا خاطئة وتعود لمدنيين، ولكن حتى الـ90% من الأهداف التي يُفترض أن تكون صحيحة لم تكن صحيحة بشكل كامل.
قامت إسـرائـيل بتحديث النظام لتوسيع تعريف ناشطي حـمـاس، وذلك بتحديد كل من يتعامل معهم، حتى من الشرطة والأطباء والمجتمع المدني بشكل عام
الخطوة التالية بعد تحديد الأهداف هي ان يقوم نظام "لافندر" بربط الفرد المحدد بمنزله ويوصي باستخدام سلاح معين بناءً على رتبة وخطورة فرد حـمـاس
مثلاً: إذا كان الشخص ذو رتبة منخفضة، يتم استخدام قنابل يسمونها "القنابل الغبية"، وهي قنابل غير موجهة لأنها أرخص ثمنًا. بمعنى أنه كلما قلّ الخطر، يقومون باستخدام قنابل بدائية تتسبب في دمار عشوائي وكوارث شديدة
في نظام "لافندر" لكل فرد من حـمـاس، يُسمح للجندي ان يقتل ما يصل لـ20 شخصا مدنيا. وفي بعض الأهداف يقوم النظام بعمل استثناء والسماح لما يصل لـ 300 شخص ان يقتل من المدنيين.
اخر خطوة في نظام "لافندر" كان: الموافقة البشرية، أظهرت المصادر ان بروتوكول الاشراف البشري الوحيد المطبق كان التأكد ان المصدر ذكر وليس انثى فقط وليس اي تدخل اخر.
نظام الذكاء الاصطناعي لا ينتج أي حقائق، كل ما يقوم به هو توقعات فقط، وهو يعمل وفقا لمن انشأه ومع ذلك يعتمدون عليه بشكل كامل.
وما حدث في غـزة كان عبارة عن تجربة واختبار لتقنيات الذكاء الاصطناعي المستقبلية
في نوفمبر 2023، أصدرت الولايات المتحدة الامريكية اطارا دوليا لتقنين استخدام الذكاء الاصطناعي في الحرب، أكثر من 50 دولة وقعت، الا إسـرائـيل فرفضت التوقيع.
ايش رايكم؟
دولة من كثر غبائها تعتمد حتى على ال AI في الحرب
والمدنيين فئران تجارب لنظامهم الجديد.

جاري تحميل الاقتراحات...