أهم خبر في الذكاء الاصطناعي هذا الأسبوع هو إعلان IBM و Amazon التوقف عن تطوير أو استخدام خدمات التعرف على الوجه (ولو لفترة مؤقتة).
سبب أهمية الخبر هو الاعتماد المتزايد على هذه التقنية من جهات أمنية بشكل يخترق خصوصية الأفراد ويضر بالفئات المهمشة أكثر من سواهم.
سبب أهمية الخبر هو الاعتماد المتزايد على هذه التقنية من جهات أمنية بشكل يخترق خصوصية الأفراد ويضر بالفئات المهمشة أكثر من سواهم.
الخبر يأتي بعد سنين من تحول تطبيقات الذكاء الاصطناعي المتقدمة مثل التعرف على الوجوه من ترفيه أكاديمي إلى أداة عالية الأهمية تستخدمها آلاف الجهات حول العالم. هذا التحول دفع بالعديد من الأصوات للحديث عن مخاطر الذكاء الاصطناعي ولا يكاد يخلو مؤتمر AI الآن بدون ورش ومحاضرات للموضوع
بل إن أهم المؤتمرات في الذكاء الاصطناعي NeurIPS الآن يتطلب مع تسليم كل ورقة للمؤتمر كتابة فقرتين مفصلة عن الآثار الاجتماعية والأخلاقية للبحث المقترح ليدفع العديد من الباحثين للاعتراض لكن هذا هو الواقع الجديد.
الكثير يخاف من الروبوتات القاتلة ونهاية البشرية المظلمة حينما تثور الآلة. ولكن هذه السيناريوهات الهوليودية خيالية مقارنة بحال الأبحاث (سيستمر الحال حتى ١٥ - ٥٠ سنة). بالمقابل، نتجاهل الحديث عن المخاطر المتحققة من أدوات الذكاء الاصطناعي اليوم (والتي كثير منها يستخدم أورّيدي)
الهدف من الحديث عن المخاطر ليس بالضرورة التوقف عن البحث والتطوير بل أخذ المخاطر بالاعتبار عند بناء نظم الذكاء الاصطناعي على الأقل حتى يتم تطوير منظومة واضحة لتقييم مختلف الآثار الأخلاقية والاقتصادية والاجتماعية — ومابعد ذلك لا أعتقد أن للباحث فيه شأن.
هنا شخصيات محلية مهتمة في أخلاقيات الذكاء الاصطناعي: د. إبراهيم المسلم و د. لطيفة العبد الكريم.
@LatifaMKarim @csibrahim
@LatifaMKarim @csibrahim
تحديث: مايكروسوفت تنضم
جاري تحميل الاقتراحات...