يصعُب أن لا يثير القلق قول جيفري هينتون، الملقب بالأب الروحي للذكاء الاصطناعي، إنه سيستقيل من شركة "غوغل"، وإنه نادم على الأعمال التي قدمها في حياته.
هينتون، الذي قدم مساهمة مهمة في أبحاث الذكاء الاصطناعي في السبعينيات من خلال عمله على الشبكات العصبية، صرح للعديد من الوسائل الإخبارية هذا الأسبوع أن شركات التكنولوجيا الكبيرة تحركت بسرعة أكثر من اللازم تجاه نشر الذكاء الاصطناعي للجمهور.
وكان أحد جوانب المشكلة هو أن الذكاء الاصطناعي يقدم مهارات شبيهة بالإنسان بسرعة أكبر مما توقعه الخبراء. ووصف الأمر في حواره مع صحيفة "نيويورك تايمز بقوله: "هذا مخيف".
المؤكد أن مخاوف هينتون منطقية، لكنها كانت ستصبح أكثر فاعلية بكثير لو كان صرح بها قبل عدة سنوات، عندما كان باحثون آخرون يحذرون من الأمر نفسه وهم ما يزالون في مقتبل مسيرتهم المهنية، وليس قبل تقاعدهم مباشرة مثلما فعل.
الخوف من شركات التكنولوجيا!
اللافت للنظر، أن هينتون نشر تغريدة لتفسير الطريقة التي وصفت بها صحيفة "نيويورك تايمز" دوافعه، وذلك خوفاً من إشارة المقال إلى أنه ترك "غوغل" حتى يتمكن بحرية من انتقادها
اللافت للنظر، أن هينتون نشر تغريدة لتفسير الطريقة التي وصفت بها صحيفة "نيويورك تايمز" دوافعه، وذلك خوفاً من إشارة المقال إلى أنه ترك "غوغل" حتى يتمكن بحرية من انتقادها
وكتب: "في الواقع، لقد غادرت حتى أتمكن من التحدث عن مخاطر الذكاء الاصطناعي عموماً، دون التفكير في مدى تأثير ذلك على Google).
لكن Google تصرفت بمسؤولية كبيرة".
لكن Google تصرفت بمسؤولية كبيرة".
رغم أن الهالة التي أحاطت بهينتون في هذا المجال ربما تكون قد أبعدته عن سماع ردود الفعل السلبية، إلا أن تصريحاته تسلط الضوء على مشكلة مزمنة في أبحاث الذكاء الاصطناعي
وهي أن شركات التكنولوجيا الكبرى تحكم قبضتها على هذه الأبحاث، لدرجة أن العديد من علمائها يخشون التعبير عن مخاوفهم خوفاً من الإضرار بمسيرتهم المهنية مستقبلاً.
رئيس "Google" يحذّر من الاندفاع في استخدام الذكاء الاصطناعي دون رقابة
يمكن فهم الأسباب الكامنة وراء ذلك الخوف، حيث اضطرت ميريديث ويتاكر، مديرة الأبحاث السابقة في "Google"، إلى إنفاق آلاف الدولارات على المحامين في 2018 بعدما ساعدت على تنظيم مظاهرة لـعشرين ألفاً من موظفي الشركة، اعتراضاً على تعاقداتها مع وزارة الدفاع الأميركية.
وصرحت لي بقولها: "الوقوف أمام (Google) مخيف حقاً". وفي نهاية المطاف استقالت من شركة محركات البحث العملاقة، بعد تحذيرها من التحدث عن توجهات الشركة في العلن، وتشغل الآن منصب الرئيس التنفيذي لتطبيق الرسائل المشفرة "سيغنال" (Signal).
بعد ذلك بعامين، طُرد تيمنت غيبرو ومارغريت ميتشل باحثا الذكاء الاصطناعي في "Google" من شركة التكنولوجيا العملاقة
بعدما أصدرا بحثاً سلط الضوء على مخاطر نماذج اللغة الكبيرة، وهي التقنية التي يدور حولها الآن العديد من المخاوف بشأن برامج الدردشة والذكاء الاصطناعي التوليدي. وأشارا إلى معاناتها من ثغرات مثل التحيز العنصري والغموض والمخاطر البيئية.
تشعر ويتاكر بامتعاض من فكرة تصدر صور هينتون الآن لوسائل الإعلام التي تتحدث عن مساهماته الجليلة في مجال الذكاء الاصطناعي، بينما هناك آخرون خاطروا أكثر منه بكثير للدفاع عما يؤمنون به فعلاً أثناء عملهم في "Google".
وتقول إن "الأشخاص الذين يتمتعون بسلطة أقل بكثير ومناصب أكثر تهميشاً هم الأبطال الحقيقيون الذين يحملون على عاتقهم مخاطر شخصية كبيرة حتى يعرف الناس المشكلات المتعلقة بالذكاء الاصطناعي والشركات التي تتحكم فيه".
رفض هينتون الإجابة عن سؤال حول السبب وراء عدم تحدثه عن تلك المخاطر في وقت سابق. لكن يبدو أنه كان قلقاً بشأن الذكاء الاصطناعي لبعض الوقت الآن، بما في ذلك في السنوات التي كان زملاؤه حريصون فيها على اتباع نهج أكثر حذراً تجاه التكنولوجيا.
أوضح مقال نُشر في مجلة "نيويوركر" عام 2015 أنه تحدث مع باحث آخر في الذكاء الاصطناعي عن كيفية استخدام السياسيين للذكاء الاصطناعي في إرهاب الناس، وكان ذلك على هامش أحد المؤتمرات.
وعندما سُئل عن سبب استمراره في إجراء أبحاث بهذا المجال، أجاب هينتون: "يمكنني أن أقدم لكم الحجج المعتادة، لكن الحقيقة هي أن اكتشاف أشياء جديدة في هذا المجال ممتع جداً".
ويشبه هذا التصريح إلى حد كبير الوصف الشهير الذي استخدمه ج. روبرت أوبنهايمر للحديث عن "انجذابه بشكل ممتع من الناحية التقنية للعمل على القنبلة الذرية".
جاري تحميل الاقتراحات...