كان من بين الموقعين
عماد موستاك، الرئيس التنفيذي لشركة Stability AI ، وباحثين في شركة DeepMind التابعة لـ Google، و جوشوا بنجيو من أصحاب الثقل في مجال الذكاء الاصطناعي ، والذي يُشار إليه غالبًا على أنه أحد "عراب الذكاء الاصطناعي" ، وستيوارت راسل، رائد البحث في الميدان.
عماد موستاك، الرئيس التنفيذي لشركة Stability AI ، وباحثين في شركة DeepMind التابعة لـ Google، و جوشوا بنجيو من أصحاب الثقل في مجال الذكاء الاصطناعي ، والذي يُشار إليه غالبًا على أنه أحد "عراب الذكاء الاصطناعي" ، وستيوارت راسل، رائد البحث في الميدان.
وذكر في الرسالة
-التوقف يهدف إلى "اعطاء فرصة لتطوير بروتوكولات السلامة المشتركة لمثل هذه التصاميم وتنفيذها ومراجعتها من قبل خبراء مستقلين"
- "يجب تطوير أنظمة ذكاء اصطناعي قوية فقط بمجرد أن نكون واثقين من أن آثارها ستكون إيجابية وأن مخاطرها يمكن التحكم فيها".
-التوقف يهدف إلى "اعطاء فرصة لتطوير بروتوكولات السلامة المشتركة لمثل هذه التصاميم وتنفيذها ومراجعتها من قبل خبراء مستقلين"
- "يجب تطوير أنظمة ذكاء اصطناعي قوية فقط بمجرد أن نكون واثقين من أن آثارها ستكون إيجابية وأن مخاطرها يمكن التحكم فيها".
وعرضت الرسالة بالتفصيل المخاطر المحتملة على المجتمع والحضارة بسبب أنظمة الذكاء الاصطناعي التنافسية البشرية في شكل اضطرابات اقتصادية وسياسية ، ودعت المطورين إلى العمل مع صانعي السياسات بشأن الحوكمة والسلطات التنظيمية.
قال جاري ماركوس
الأستاذ في جامعة نيويورك الذي وقع الخطاب: "الرسالة ليست مثالية ، لكن نحن بحاجة إلى الإبطاء حتى نفهم التداعيات بشكل أفضل". "أصبح اللاعبون الكبار أكثر تكتمًا بشأن ما يفعلونه، مما يجعل من الصعب على المجتمع الدفاع ضد أي أضرار قد تحدث".
الأستاذ في جامعة نيويورك الذي وقع الخطاب: "الرسالة ليست مثالية ، لكن نحن بحاجة إلى الإبطاء حتى نفهم التداعيات بشكل أفضل". "أصبح اللاعبون الكبار أكثر تكتمًا بشأن ما يفعلونه، مما يجعل من الصعب على المجتمع الدفاع ضد أي أضرار قد تحدث".
يوهانا بيوركلوند
باحثة في الذكاء الاصطناعي وأستاذة مساعدة في جامعة أوميا:
"لا أعتقد أن هناك حاجة لسحب فرملة اليد."
وقالت:
بدلاً من إيقاف البحث مؤقتًا، يجب أن يخضع باحثو AI لمطالب شفافية أكبر.
باحثة في الذكاء الاصطناعي وأستاذة مساعدة في جامعة أوميا:
"لا أعتقد أن هناك حاجة لسحب فرملة اليد."
وقالت:
بدلاً من إيقاف البحث مؤقتًا، يجب أن يخضع باحثو AI لمطالب شفافية أكبر.
وفي ذات المسار
- كشفت الحكومة البريطانية عن مقترحات لإطار تنظيمي "قابل للتكيف" حول الذكاء الاصطناعي.
- ويرى ماسك أن تقسم مسؤولية إدارة الذكاء الاصطناعي (AI) بين المنظمين لحقوق الإنسان والصحة والسلامة والمنافسة، بدلاً من إنشاء هيئة جديدة مخصصة للتكنولوجيا.
- كشفت الحكومة البريطانية عن مقترحات لإطار تنظيمي "قابل للتكيف" حول الذكاء الاصطناعي.
- ويرى ماسك أن تقسم مسؤولية إدارة الذكاء الاصطناعي (AI) بين المنظمين لحقوق الإنسان والصحة والسلامة والمنافسة، بدلاً من إنشاء هيئة جديدة مخصصة للتكنولوجيا.
جاري تحميل الاقتراحات...