سعيد الكلباني
سعيد الكلباني

@smalkalbani

8 تغريدة 8 قراءة Mar 30, 2023
🚨إيلون ماسك و1000 خبير🚨
تقرير نشرته رويترز قبل ساعات يفيد بأن إيلون ماسك و1000 خبير في مجال الذكاء الاصطناعي وقعوا خطاب أصدره معهد Future Life غير الربحي يدعو لإيقاف تطوير أنظمة أقوى من GPT-4 لمدة (6) أشهر. وذلك للمخاطر المحتملة على المجتمع والإنسانية.
كان من بين الموقعين
عماد موستاك، الرئيس التنفيذي لشركة Stability AI ، وباحثين في شركة DeepMind التابعة لـ Google، و جوشوا بنجيو من أصحاب الثقل في مجال الذكاء الاصطناعي ، والذي يُشار إليه غالبًا على أنه أحد "عراب الذكاء الاصطناعي" ، وستيوارت راسل، رائد البحث في الميدان.
وذكر في الرسالة
-التوقف يهدف إلى "اعطاء فرصة لتطوير بروتوكولات السلامة المشتركة لمثل هذه التصاميم وتنفيذها ومراجعتها من قبل خبراء مستقلين"
- "يجب تطوير أنظمة ذكاء اصطناعي قوية فقط بمجرد أن نكون واثقين من أن آثارها ستكون إيجابية وأن مخاطرها يمكن التحكم فيها".
وعرضت الرسالة بالتفصيل المخاطر المحتملة على المجتمع والحضارة بسبب أنظمة الذكاء الاصطناعي التنافسية البشرية في شكل اضطرابات اقتصادية وسياسية ، ودعت المطورين إلى العمل مع صانعي السياسات بشأن الحوكمة والسلطات التنظيمية.
قال جاري ماركوس
الأستاذ في جامعة نيويورك الذي وقع الخطاب: "الرسالة ليست مثالية ، لكن نحن بحاجة إلى الإبطاء حتى نفهم التداعيات بشكل أفضل". "أصبح اللاعبون الكبار أكثر تكتمًا بشأن ما يفعلونه، مما يجعل من الصعب على المجتمع الدفاع ضد أي أضرار قد تحدث".
يوهانا بيوركلوند
باحثة في الذكاء الاصطناعي وأستاذة مساعدة في جامعة أوميا:
"لا أعتقد أن هناك حاجة لسحب فرملة اليد."
وقالت:
بدلاً من إيقاف البحث مؤقتًا، يجب أن يخضع باحثو AI لمطالب شفافية أكبر.
وتأتي المخاوف بعد إثارة شرطة الاتحاد الأوروبي يوروبول يوم الاثنين مجموعة من المخاوف الأخلاقية والقانونية بشأن الذكاء الاصطناعي المتقدم مثل ChatGPT ، محذرة من احتمال إساءة استخدام النظام في محاولات التصيد والمعلومات المضللة والجرائم الإلكترونية.
وفي ذات المسار
- كشفت الحكومة البريطانية عن مقترحات لإطار تنظيمي "قابل للتكيف" حول الذكاء الاصطناعي.
- ويرى ماسك أن تقسم مسؤولية إدارة الذكاء الاصطناعي (AI) بين المنظمين لحقوق الإنسان والصحة والسلامة والمنافسة، بدلاً من إنشاء هيئة جديدة مخصصة للتكنولوجيا.

جاري تحميل الاقتراحات...