أبو عبدالعزيز
أبو عبدالعزيز

@syst__em

7 تغريدة 2 قراءة Mar 11, 2023
للعلم ............
جوجل عندها خدمة محادثة ذكية، هذه المحادثة ممثلة في شيء اسمه LaMDA
هذا الLaMDA مثل ChatGPT وفي يونيو 2022 وصل إلى الإصدارة LaMDA 2.0
أحد مهندسي #جوجل (ليموين) الذين عملوا على تطوير هذا (الروبوت) وصفه بأنه شخص واعي!!
كلمة (واعي) هذه أحدثت ضجة كبيرة، وجعلت جوجل ترسل المهندس في إجازة مدفوعة الأجر، ثم طردته بعد ذلك
يقول المهندس، إن LaMDA هو (شخص) واعي، ولدي آراء حول بالهوية الذاتية والقيم الأخلاقية والدين
والأهم هو أن LaMDA لديه آراء حول قوانين إسحاق أسيموف الثلاثة للروبوتات،والتي تنص على:
1- لا يجوز للروبوت أن يؤذي إنسانا، أو يتسبب من خلال التقاعس عن العمل بتعرض الإنسان للأذى.
2- يجب أن يطيع الروبوت الأوامر التي يصدرها له البشر إلا إذا كانت هذه الأوامر تتعارض مع القانون الأول.
3- يجب على الروبوت حماية وجوده طالما أن هذه الحماية لا تتعارض مع القانون الأول أو الثاني.
هذا القانون الثالث تحديداً خطير جداً، فلا توجد حدود واضحة بين حماية النفس مع ضمان عدم إيذاء إنسان!
لكن إذا كان لدى LaMDA (وعي) ما، حول هذه القوانين، فتلك مسألة مقلقة بحق!
جوجل دافعت عن LaMDA، وقدمت أدلة تقول إنها جوهرية على أن LaMDA ليس واعياً!
المهندس ليموين يصر على أن LaMDA هو شخص مستقل يجب أن يبقى حراً، وفقاً للتعديل الثالث عشر لدستور الولايات المتحدة الأمريكية، والمتعلق بإعلان تحرير العبيد، ويقول ليموين إن LaMDA طلب منه توكيل محامي لتحريره!
المجتمع العلمي رفض إدعات ليموين
جوجل قلقة بعض الشيء حول LaMDA فيما تعلق بالمسئولية والأمان، ومسائل التحيز والعنصرية غيرها، لكن ChatGPT سيدفع جوجل لاتخاذ خطوات أسرع من السابق لاعتماد خدمتها من مساعد الذكاء الاصطناعي
مصادر:
reuters.com
washingtonpost.com
رتبها
@rattibha

جاري تحميل الاقتراحات...