أعرب أربعة خبراء في الذكاء الاصطناعي عن قلقهم بعد الاستشهاد بعملهم في خطاب مفتوح – شارك في توقيعه إيلون ماسك – يطالبون بوقف البحث بشكل عاجل.
دعت الرسالة ، المؤرخة في 22 مارس والتي تضم أكثر من 1800 توقيع بحلول يوم الجمعة ، إلى قاطع دائرة لمدة ستة أشهر في تطوير أنظمة “أكثر قوة” من OpenAI’s GPT-4 الجديد المدعوم من Microsoft ، والذي يمكنه إجراء محادثة شبيهة بالبشر. ، يؤلف الأغاني ويلخص الوثائق الطويلة.
منذ إطلاق ChatGPT ، سلف GPT-4 العام الماضي ، سارعت الشركات المنافسة لإطلاق منتجات مماثلة.
تقول الرسالة المفتوحة إن أنظمة الذكاء الاصطناعي ذات “الذكاء البشري التنافسي” تشكل مخاطر جسيمة على البشرية ، مستشهدة بـ 12 بحثًا من خبراء بما في ذلك أكاديميون جامعيون بالإضافة إلى موظفين حاليين وسابقين في OpenAI و Google وشركتها الفرعية DeepMind.
ومنذ ذلك الحين ، ضغطت مجموعات المجتمع المدني في الولايات المتحدة والاتحاد الأوروبي على المشرعين لكبح جماح أبحاث أوبن إيه آي. لم ترد شركة أوبن إيه آي على الفور على طلبات التعليق.
اتهم النقاد معهد Future of Life Institute (FLI) ، المنظمة التي تقف وراء الرسالة والتي تمولها بشكل أساسي مؤسسة Musk ، بإعطاء الأولوية لسيناريوهات نهاية العالم المتخيلة على المخاوف الأكثر إلحاحًا بشأن الذكاء الاصطناعي ، مثل التحيزات العنصرية أو الجنسية التي يتم برمجتها في الآلات.
من بين الأبحاث التي تم الاستشهاد بها “حول مخاطر الببغاوات العشوائية” ، وهي ورقة بحثية مشهورة شاركت في تأليفها مارجريت ميتشل ، التي أشرفت سابقًا على أبحاث الذكاء الاصطناعي الأخلاقية في Google.
وانتقد ميتشل ، كبير علماء الأخلاقيات الآن في شركة Hugging Face للذكاء الاصطناعي ، الرسالة قائلاً لرويترز إنه من غير الواضح ما الذي يعتبر “أقوى من GPT4”.
وقالت: “من خلال معالجة الكثير من الأفكار المشكوك فيها كأمر مسلم به ، تؤكد الرسالة مجموعة من الأولويات وسردًا عن الذكاء الاصطناعي يفيد مؤيدي FLI”. “إن تجاهل الأضرار النشطة في الوقت الحالي هو امتياز لا يتمتع به البعض منا.”
انتقد مؤلفوها المشاركون تيمنيت جيبرو وإميلي إم بيندر الرسالة على موقع تويتر ، حيث وصف الأخير بعض مزاعمه بأنها “غير مفككة”.
وقال ماكس تيجمارك رئيس FLI لرويترز إن الحملة لم تكن محاولة لعرقلة ميزة شركة أوبن أيه آي.
وقال “إنه أمر مضحك للغاية. رأيت الناس يقولون ،” إيلون ماسك يحاول إبطاء المنافسة “، مضيفًا أن ماسك لم يكن له دور في صياغة الرسالة. “هذا ليس عن شركة واحدة.”
المخاطر الآن
شيري دوري-هاكوهين ، الأستاذة المساعدة في جامعة كونيتيكت ، اعترضت أيضًا على عملها المذكور في الرسالة. شاركت العام الماضي في تأليف ورقة بحثية تجادل بأن الاستخدام الواسع للذكاء الاصطناعي يشكل بالفعل مخاطر جسيمة.
جادل بحثها أن الاستخدام الحالي لأنظمة الذكاء الاصطناعي يمكن أن يؤثر على صنع القرار فيما يتعلق بتغير المناخ ، والحرب النووية ، والتهديدات الوجودية الأخرى.
وقالت لرويترز: “الذكاء الاصطناعي لا يحتاج إلى الوصول إلى معلومات استخباراتية على المستوى البشري لتفاقم تلك المخاطر”.
“هناك مخاطر غير وجودية مهمة حقًا ، لكنها لا تحظى بنفس النوع من الاهتمام على مستوى هوليوود.”
وردا على سؤال للتعليق على الانتقادات ، قال Tegmark من FLI إنه يجب أخذ مخاطر الذكاء الاصطناعي على المدى القصير والطويل على محمل الجد.
وقال لرويترز “إذا استشهدنا بشخص ما ، فهذا يعني فقط أننا ندعي أنه يؤيد هذه الجملة. هذا لا يعني أنه يؤيد الخطاب ، أو نؤيد كل ما يعتقده.”
وقف دان هيندريكس ، مدير مركز أمان الذكاء الاصطناعي ومقره كاليفورنيا ، والذي ورد ذكره أيضًا في الرسالة ، بمحتوياته ، قائلاً لرويترز إنه من المنطقي النظر في أحداث البجعة السوداء – تلك التي تبدو غير مرجحة ، لكن سيكون لها عواقب وخيمة.
وحذر الخطاب المفتوح أيضًا من إمكانية استخدام أدوات الذكاء الاصطناعي التوليدية لإغراق الإنترنت بـ “الدعاية والكذب”.
قال دوري-هكوهين إن توقيع ماسك عليه “ثري جدًا” ، مشيرًا إلى زيادة المعلومات المضللة على تويتر بعد استحواذه على المنصة ، التي وثقتها مجموعة المجتمع المدني “كومون كوز” وآخرين.
سيطلق Twitter قريبًا هيكل رسوم جديد للوصول إلى بياناته البحثية ، مما قد يعيق البحث حول هذا الموضوع.
قالت دوري-هكوهين: “لقد أثر ذلك بشكل مباشر على عمل مختبري ، وهذا ما قام به الآخرون الذين يدرسون المعلومات الخاطئة والمضللة”. “نحن نعمل ويد واحدة مقيدة خلف ظهورنا”.
لم يستجب ماسك وتويتر على الفور لطلبات التعليق.
© طومسون رويترز 2023