حذرت مجموعة من رؤساء وخبراء الصناعة يوم الثلاثاء من أن قادة العالم يجب أن يعملوا لتقليل “مخاطر الانقراض” من تكنولوجيا الذكاء الاصطناعي.
قال بيان من سطر واحد وقعه العشرات من المتخصصين ، بما في ذلك Sam Altman الذي أنشأت شركته OpenAI الروبوت ChatGPT ، إن معالجة مخاطر الذكاء الاصطناعي يجب أن تكون “أولوية عالمية إلى جانب المخاطر المجتمعية الأخرى مثل الأوبئة والحرب النووية”.
اندلعت ChatGPT في دائرة الضوء في أواخر العام الماضي ، مما يدل على القدرة على إنشاء مقالات وقصائد ومحادثات من أقصر الموجهات.
أثار النجاح الكبير للبرنامج اندفاعًا كبيرًا من الذهب باستثمارات بمليارات الدولارات في هذا المجال ، لكن النقاد والمطلعين أثاروا ناقوس الخطر.
تشمل المخاوف الشائعة احتمال أن تغرق روبوتات المحادثة الويب بمعلومات مضللة ، أو أن الخوارزميات المتحيزة ستنتج مواد عنصرية ، أو أن الأتمتة التي تعمل بالذكاء الاصطناعي يمكن أن تلحق الضرر بالصناعات بأكملها.
آلات فائقة الذكاء
لم يذكر البيان الأخير ، المنشور على الموقع الإلكتروني لمركز أمان الذكاء الاصطناعي غير الربحي ومقره الولايات المتحدة ، أي تفاصيل عن التهديد الوجودي المحتمل الذي يشكله الذكاء الاصطناعي.
وقال المركز إن “البيان الموجز” كان يهدف إلى فتح نقاش حول مخاطر التكنولوجيا.
قام العديد من الموقعين ، بما في ذلك جيفري هينتون ، الذي ابتكر بعض التقنيات الأساسية لأنظمة الذكاء الاصطناعي والمعروف بأحد عرابي الصناعة ، بتوجيه تحذيرات مماثلة في الماضي.
كان أكبر مخاوفهم هو ظهور ما يسمى بالذكاء العام الاصطناعي (AGI) – وهو مفهوم غير محدد التعريف للحظة عندما تصبح الآلات قادرة على أداء وظائف واسعة النطاق ويمكنها تطوير برامجها الخاصة.
الخوف هو أن البشر لن يعودوا قادرين على التحكم في الآلات فائقة الذكاء ، والتي حذر الخبراء من أنها قد تكون لها عواقب وخيمة على الأنواع والكوكب.
وقع البيان العشرات من الأكاديميين والمتخصصين من الشركات بما في ذلك Google و Microsoft – وكلاهما رائد في مجال الذكاء الاصطناعي.
يأتي ذلك بعد شهرين من إصدار رئيس شركة Tesla Elon Musk ومئات غيره خطابًا مفتوحًا يدعو إلى التوقف في تطوير هذه التكنولوجيا حتى يمكن إثبات أنها آمنة.
ومع ذلك ، أثارت رسالة ماسك انتقادات واسعة النطاق مفادها أن التحذيرات الرهيبة من الانهيار المجتمعي مبالغ فيها بشكل كبير ، وغالبًا ما تعكس نقاط الحديث عن معززات الذكاء الاصطناعي.
وقالت الأكاديمية الأمريكية إميلي بندر ، التي شاركت في كتابة أوراق مؤثرة تنتقد منظمة العفو الدولية ، إن رسالة مارس ، التي وقعها مئات الشخصيات البارزة ، كانت “مليئة بالضجيج في مجال الذكاء الاصطناعي”.
“غير متحيز بشكل مدهش”
انتقد بندر وغيره من النقاد شركات الذكاء الاصطناعي لرفضها نشر مصادر بياناتهم أو الكشف عن كيفية معالجتها – ما يسمى بمشكلة “الصندوق الأسود”.
من بين الانتقادات أن الخوارزميات يمكن تدريبها على مادة عنصرية أو جنسية أو متحيزة سياسياً.
ألمح ألتمان ، الذي يقوم حاليًا بجولة حول العالم في محاولة للمساعدة في تشكيل المحادثة العالمية حول الذكاء الاصطناعي ، عدة مرات إلى التهديد العالمي الذي تشكله التكنولوجيا التي تطورها شركته.
وقال لمجموعة صغيرة من الصحفيين في باريس يوم الجمعة الماضي: “إذا حدث خطأ ما في الذكاء الاصطناعي ، فلن يساعدك أي قناع غاز”.
لكنه دافع عن رفض شركته نشر بيانات المصدر ، قائلاً إن النقاد يريدون حقًا فقط معرفة ما إذا كانت النماذج متحيزة.
وقال “إن ما يحدث في اختبار التحيز العنصري هو ما يهم هناك” ، مضيفًا أن النموذج الأخير كان “غير متحيز بشكل مدهش”.