Kais Al Essa قيس العيسى
Kais Al Essa قيس العيسى

@kaisalessa

25 تغريدة 5 قراءة Apr 26, 2023
هل تتخيل ان الذكاء الاصطناعي سيتفوق مستقبلا على البشر؟ هذا رأي معظم العلماء اليوم.
اليزر يودكاوسكي يحذر البشرية منذ ٢٠١٥ ان الذكاء الاصطناعي خطر وانه سيقوم بإبادة البشرية مستقبلا!
فمن هو؟ ولماذا يتوقع ذلك مستقبلا؟ وكيف يمكننا الحد من هذا الخطر؟
اذا تهمك هذي المواضيع حياك بهالسرد
من هو؟
اسمه اليزر يودكاوسكي
Eliezer Yudkowsky
امريكي ولد ١٩٧٩
عالم في الحاسب الالي ونظرية اتخاذ القرار وباحث في الذكاء الاصطناعي.
مؤلف لمجموعة من الكتب في الذكاء الاصطناعي ونظرية اتخاذ القرار.
مؤسس لمركز ميري لابحاث الذكاء الاصطناعي (Machine Intelligence Research Institute).
اليزر هو اكثر من حذر من امكانية وصول الذكاء الاصطناعي الى مستويات ذكاء عالية ستؤدي لاحقا الى قدرة الذكاء الاصطناعي من الهرب (runaway) من سيطرة الانسان وبالتالي اتخاذ قرارات غير متوقعة. لذا يعتقد اليزر ان هذا التطور سيؤدي لابادة الذكاء الاصطناعي للانسان!🙈
سألخص لقاء له في هالسرد
اعجبني الموضوع لانه تحدث عن العديد من النظريات والمشاريع خلال شرحه للمشكلة وحلولها.
للتوضيح في هالسرد سأنقل هنا نظرياته ورؤيته للمشكلة وليس رأيي.
سأحاول توضيحها قدر الامكان لاني انقلها من الانجليزي للعربي.
لا اتفق مع بعض نظرياته مثلا رؤيته لتطور البشرية وانها من سلالة القردة!
نبدأ تلخيص المقابلة:
- شرح ان ChatGPT مش جديد وانه تم التحدث عن دراساته منذ ٢٠١٨ اي قبل ٤ سنوات من انطلاقه رسميا.
- تحدث ان GPT-3 تطور جيد ولكن GPT-4 سيكون اقوى وانه قادم قريبا (ملاحظة: اللقاء تم قبل الاعلان عن GPT-4 للعامه).
- يعتقد ان تقنيات الذكاء الاصطناعي الحالية غير مخيفة بعد وغير قادرة على احداث طفرة في طريقة تفكير الذكاء الاصطناعي بعد. فهي بالكاد اليوم تحاول ان تقلد الانسان وقدراته.
ولكن التطور في تسارع واضح.
- تحدث عن مفهوم الذكاء العام General Intelligence وهو القدرة الطبيعية للانسان على فهم ما حوله وتخزين المعلومات واسترجاعها والتعلم باستمرار والاستفادة من تجاربه وخلافه.
- تحدث عن احد اهداف التطوير ان يصل الذكاء الاصطناعي لقدرات الذكاء العام فيصبح Artificial General Intelligence او ما يمسى AGI
(يوجد حديث اليوم عن اقتراب الذكاء الاصطناعي من تحقيق هذا الهدف)
- تحدث عن مفهوم الذكاء الخارق Super Intelligence وكيف انه يستطيع التفوق على الانسان ولكن في بعض القدرات مثل لعب الشطرنج.
ذلك ان لديه معلومات ضخمة جدا وتم تدريبه عليها ليتوقع حركاتك ويفكر كيف سيواجهها قبل ان تلعبها وبالتالي يستطيع ان يضع سيناريوهات كاملة لطريقة اللعب ويتنبأ بها
هذا التنبؤ او التوقع يكون قبل ان تقوم بحركتك .. لذا فانه يعلم كيف سيتغلب عليك مهما حاولت لانه جهز جميع السيناريوهات المحتملة وكيفية مواجهتها.
(وهذا تم فعلا من عدة سنوات حيث تمكن الذكاء الاصطناعي من الفوز على بطل العالم بالشطرنج. ولكنه يبقى محدود في حالات محددة)
- تحدث عن فكرة توافق الذكاء الاصطناعي AI Alignment واهميتها لعدم ايذاء البشر لان الذكاء الاصطناعي لا يحس ولذا لا يهمه وجود او عدم وجود البشر. ولذا قد يتخذ قرارات تؤدي لابادة البشرية.
(وقد سبق ذكر شروط يجب بناءها في اي برنامج ذكاء اصطناعي لعدم ايذاء البشر. شاهد الصورة المرفقة)
- تحدث عن سبب عدم قدرة العلماء من السيطرة على الذكاء الاصطناعي مستقبلا وشرح ان كل المجالات العلمية كان فيها تطور وابتكارات لم تعلم البشرية عن تأثيراتها سلبية كانت او ايجابية الا بعد سنوات طويلة.
(مثلا عند تطور الذكاء الاصطناعي لمستوى عال جدا ما الذي يمنعه من بناء قواعد جديدة؟)
- قال ان الكارثة (لا سمح الله) لن تكون متوقعة وان الذكاء الاصطناعي AI اذا كان ذكيا فعلا فانه سيكون صامتا في هجومه على البشرية!
(اي انه سيخطط للهجوم بشكل لا يمكن اكتشافه حتى تحين ساعة الصفر)
- تحدث عن مفهوم مشابه لاحتمال لقائنا كبشر مع مخلوقات فضائية اخرى وذكر نظرية Grabby Aliens التي تتحدث عن الحضارات المختلفة الفضائية وتأثيرها.
شرح للنظرية في هذا الفيديو
youtu.be
- شبه العمل الحالي على الذكاء الاصطناعي وعدم الاهتمام ب AI Alignment بمن يبني نظام تشغيل ولكنه لم يقتنع بمفهوم حماية هذا النظام من الاختراقات ولذا بناه بدون اي اعتبارات امنيه .. فبالنتيجة سنحصل على نظام تشغيل لايمكن تأمينه مستقبلا ضد الاختراقات بشكل كامل.
- يعتقد ان الطريقة الوحيدة لكي لا يحدث ما يتوقعه، وهو ويتمنى ذلك بطبيعة الحال، هو ان يكون مخطئا في توقعاته حتى لا تحدث المصيبة لا سمح الله.
هو يتوقعها بالمستقبل ولا يعلم متى لانها مرتبطة بسرعة التطور في الذكاء الاصطناعي.
- شبه توقعه بما فعله المهندسون في مشروع مانهاتن The Manhattan Project من حيث التوقعات والاحتمالات. حيث انهم درسوا احتمالية ان القنبلة الذرية ممكن ان تحرق الغلاف الجوي وبالتالي ينتهي العالم. ولكن حساباتهم كانت تقول ان هذا مستبعد ولذا استمر العمل على القنبله الذرية.
(باختصار مشروع مانهاتن
The Manhattan Project
كان هدفه تصنيع القنبله الذرية الاولى واستمر من ١٩٤٢ الى ١٩٤٦ بقيادة امريكا ومشاركة كندا وبريطانيا وكلف ٢ مليار دولار و ١٣٠ الف موظف ب٣٠ موقع!)
(صورة للمواقع الرئيسية في امريكا التي بدأ منها المشروع ثم انتشر لاحقا الى مواقع اخرى)
- تحدث ان مشكلة تطوير AI انه يستمر في اعطائنا نتائج مميزة (مثل ChatGPT) تعتبر مكافأة تحفزنا لتطوير ما هو افضل (spitting gold) حتى نصل لمرحلة تطوير AI يستطيع بناء ذكاء اصطناعي خارق لا يمكن السيطرة عليه وهنا تقع المصيبة!
ملاحظاتي الخاصة:
- بطبيعة الحال التطور امل حتمي ولا يمكن ايقافه لذا انا مع استمرار ابحاث تطور الذكاء الاصطناعي.
- ولكن هذا الحديث ليس بجديد وامكانية انقلاب الذكاء الاصطناعي ضد الانسان واردة لذا يجب الحماية ضدها.
- حديثه كان محبط جدا وكأن النتيجة حتمية وهذا غير صحيح لانه في علم الغيب وبيد رب العالمين.
- يوجد امل في بعض المشاريع الصغيرة هنا وهناك. هنا مشروع تمكن فيه انسان من الفوز على الذكاء الاصطناعي القوي جدا بلعبة Go باستخدام استراتيجية اقترحها ذكاء اصطناعي آخر
ft.com
- اخبار متواردة ان بعض شركات الاعلام العالمية ستطالب OpenAI بالدفع مقابل استخدام معلوماتها واخبارها في تدريب الذكاء الاصطناعي واجابات اسئلة مستخدمي ChatGPT. فهل تتحرك قوى السوق لتحقيق معادلة طبيعية تحد من تمدد الذكاء الاصطناعي؟ هذا ممكن ايضا.
slashdot.org
شخصيا مثل هذه اللقاءات تجعلك تفكر اكثر خارج الصندوق لذا فهي جميلة برأيي ولكن علينا ان نعي ان المستقبل بيد رب العالمين ثم بيد الانسان.
- رابط اللقاء كامل لمن اراد متابعته. اللقاء حوالي ساعتين لكن شخصيا اراه يستحق المتابعة للمهتمين.
youtu.be
تحياتي
يهمني رأيكم ..

جاري تحميل الاقتراحات...