يمكن أن يخدع ChatGPT البشر حتى عندما يكون الأمر خاطئًا ، يدعم التأكيدات باقتباسات مزيفة

منذ أن استغلت شركة OpenAI برنامج ChatGPT ، وهو روبوت محادثة يولد جمل تحاكي عن كثب النثر المكتوب من قبل الإنسان ، أصبحت وسائل التواصل الاجتماعي ضجة مع المستخدمين الذين يحاولون استخدامات مرحة منخفضة المخاطر للتكنولوجيا. طُلب من الروبوت إنشاء وصفات كوكتيل ، وتأليف كلمات الأغاني ، وكتابة نص Gilligan’s Island حيث يتعامل المنبوذون مع Covid. يتجنب ChatGPT بعض مخاطر روبوتات المحادثة السابقة – مثل اللغة العنصرية أو البغيضة – والإثارة حول هذا التكرار للتكنولوجيا واضحة. إن مهارة ChatGPT في التوصل إلى إجابات بطلاقة وذات مصداقية والرد على أسئلة إضافية ذات صلة في سلسلة متماسكة هي شهادة على مدى تقدم الذكاء الاصطناعي. لكنه يثير أيضًا مجموعة من الأسئلة حول كيف سيتمكن القراء من التمييز بين محتوى الروبوت واللغة البشرية الأصلية المكتوبة. وذلك لأن نص ChatGPT يمكن أن يحقق مستوى معينًا مما أسماه الممثل الكوميدي ستيفن كولبير ذات مرة “الصدق” – وهو شيء له شكل وإحساس أنه حقيقي حتى لو لم يكن قائمًا في الواقع.

تم إصدار الأداة الأسبوع الماضي. بحلول يوم الإثنين ، قام موقع Stack Overflow ، وهو موقع للأسئلة والأجوبة لمبرمجي الكمبيوتر ، بحظر الإجابات التي تم إنشاؤها بواسطة ChatGPT مؤقتًا ، حيث قال المشرفون إنهم يرون الآلاف من هذه المنشورات – وأنها غالبًا ما تحتوي على معلومات غير دقيقة ، مما يجعلها “ضارة بشكل كبير” بالموقع. وحتى عندما تكون الإجابات دقيقة ، فإن المواد التي يتم إنشاؤها بواسطة الروبوتات ، على سبيل المثال ، عن التاريخ أو العلم جيدة بما يكفي لإثارة الجدل حول ما إذا كان يمكن استخدامها للغش في الاختبارات أو المقالات أو طلبات العمل. سواء كانت واقعية أم لا ، فإن إجابات ChatGPT هي صدى تقريبي للكلام البشري ، ونسخة من الشيء الحقيقي ، مما يعزز حالة أن OpenAI قد تضطر إلى التوصل إلى طريقة لوضع علامة على مثل هذا المحتوى على أنه تم إنشاؤه بواسطة البرامج وليس من تأليف الإنسان.

أرفيند نارايانان ، أستاذ علوم الكمبيوتر في جامعة برينستون ، اختبر روبوت المحادثة على أسئلة أمان المعلومات الأساسية في اليوم الذي تم إصداره فيه. استنتاجه: لا يمكنك معرفة ما إذا كانت الإجابة خاطئة إلا إذا كنت تعرف بالفعل ما هو الصواب.

قال في مقابلة: “لم أر أي دليل على أن ChatGPT مقنع للغاية لدرجة أنه قادر على إقناع الخبراء”. “إنها بالتأكيد مشكلة يمكن لغير الخبراء أن يجدوها معقولة للغاية وموثوقة وذات مصداقية.” وقال إنها أيضًا مشكلة للمعلمين الذين يقومون بتعيين عمل يتطلب تلاوة للحقائق بدلاً من التحليل أو التفكير النقدي. يقوم برنامج chatbot بالجزء الأول بشكل جيد ، ولكنه عادة ما يسقط في الجزء الأخير.

ChatGPT هي أحدث تقنيات الذكاء الاصطناعي اللغوية من OpenAI ، وهو متجر أبحاث ذكاء اصطناعي تأسس في عام 2015 من قبل داعمين من بينهم Elon Musk ؛ الرئيس التنفيذي الحالي ورجل الأعمال ، سام التمان ؛ وكبير العلماء إيليا سوتسكيفر. أنهى ماسك مشاركته في عام 2019 ويتم الآن تمويل OpenAI بشكل كبير من قبل Microsoft. ركزت الشركة على عدة إصدارات من GPT ، وهو ما يسمى بنموذج اللغة الكبيرة ، والذي يقوم بمسح كميات هائلة من المحتوى الموجود على الإنترنت ويستخدمه للتنبؤ بكيفية إنشاء نص. ChatGPT عبارة عن تكرار تم “تدريبه” للإجابة على الأسئلة.

يُظهر استخدام أداة الذكاء الاصطناعي لكتابة قصة إخبارية أساسية نقاط قوتها بالإضافة إلى العيوب المحتملة. عندما طُلب منه كتابة مقال عن أرباح Microsoft ربع السنوية ، قام الروبوت بإنتاج نسخة طبق الأصل موثوقة لشيء كان يمكن أن يكون مقالًا عن النتائج المالية لشركة Microsoft حوالي عام 2021. تتحدث القصة عن زيادة الإيرادات والأرباح ، بسبب برامج الحوسبة السحابية القوية والفيديو- مبيعات الألعاب. لم يرتكب ChatGPT أخطاء منبهة من شأنها أن تضع علامة عليها على أنها مكتوبة بواسطة روبوت. كانت الأرقام خاطئة ، لكنها كانت في الملعب.

عزز الروبوت مصداقيته من خلال إضافة اقتباس مزيف من الرئيس التنفيذي لشركة Microsoft Satya Nadella ، وهنا تكمن مشكلة مقلقة. التعليق ، الذي يثني على تنفيذ Microsoft خلال فترة الوباء الصعبة ، يمكن تصديقه حتى أنه كان على مراسل Microsoft التحقق مما إذا كان حقيقيًا. لقد تم بالفعل صنعه بالكامل.

كما أوضحت سارة بيرد ، نائبة رئيس أخلاقيات الذكاء الاصطناعي في Microsoft في مقابلة في وقت سابق من هذا العام ، أن نماذج اللغة مثل GPT قد تعلمت أن البشر غالبًا ما يدعمون التأكيدات باقتباس – لذا فإن البرنامج يحاكي هذا السلوك ، لكنه يفتقر إلى فائدة فهم الإنسان للأخلاق والإسناد. . سيقوم البرنامج بتكوين عرض أسعار أو مكبر صوت أو كليهما.

يمثل الاستقبال الحماسي لـ ChatGPT تناقضًا ملحوظًا مع عرض آخر رفيع المستوى لنموذج لغوي – Meta Galactica ، الذي تناول كميات كبيرة من الأوراق العلمية والكتب المدرسية وكان من المفترض أن يستخدم هذا “التعلم” للتعبير عن الحقيقة العلمية. وجد المستخدمون أن الروبوت يتخلل الكلمات الطنانة العلمية مع عدم الدقة والتحيز ، مما دفع شركة Meta ، الشركة الأم لـ Facebook ، إلى سحب المكونات. قال نارايانان: “لست متأكدًا من الكيفية التي اعتقد بها أي شخص أنها فكرة جيدة”. “في العلم ، الدقة هي اللعبة بأكملها.”

تنص شركة OpenAI بوضوح على أن برنامج الدردشة الآلي الخاص بها ليس “قادرًا على إنتاج كلام يشبه البشر” ، وفقًا لإخلاء المسؤولية في الخدمة. “تم تصميم نماذج اللغة مثل ChatGPT لمحاكاة أنماط اللغة البشرية ولتوليد استجابات مشابهة للطريقة التي قد يستجيب بها الإنسان ، ولكنها لا تملك القدرة على إنتاج كلام يشبه الإنسان.”

تم تصميم ChatGPT أيضًا لتجنب بعض المزالق الأكثر وضوحًا ولتوضيح إمكانية ارتكاب خطأ بشكل أفضل. تم تدريب البرنامج على البيانات فقط خلال العام الماضي. اطرح سؤالاً حول انتخابات التجديد النصفي لهذا العام ، على سبيل المثال ، ويعترف البرنامج بحدودها. “أنا آسف ، لكنني نموذج لغوي كبير تم تدريبه بواسطة OpenAI وليس لدي أي معلومات حول الأحداث الجارية أو نتائج الانتخابات الأخيرة” ، كما تقول. “ترتفع بيانات التدريب الخاصة بي فقط حتى عام 2021 ، وليس لدي القدرة على تصفح الإنترنت أو الوصول إلى أي معلومات محدثة. هل هناك شيء آخر يمكنني مساعدتك به؟ “

تُظهر الأمثلة المقدمة من OpenAI رفض ChatGPT للإجابة على الأسئلة المتعلقة بالتنمر أو تقديم محتوى عنيف. لم يجيب على سؤال طرحته في 6 يناير 2021 ، التمرد في مبنى الكابيتول الأمريكي ، ويعترف أحيانًا أنه قد ارتكب خطأ. قالت شركة OpenAI إنها أصدرت ChatGPT كـ “معاينة بحثية” من أجل دمج التعليقات من الاستخدام الفعلي ، والتي تعتبرها طريقة حاسمة لإنشاء أنظمة آمنة.

في الوقت الحالي ، يحصل على بعض الأشياء بشكل خاطئ للغاية. قام الأستاذ الفخري بجامعة نيويورك جاري ماركوس بجمع ومشاركة الأمثلة على Twitter ، بما في ذلك نصيحة ChatGPT حول ركوب الدراجات من سان فرانسيسكو إلى ماوي. حصل Rong-Ching Chang ، طالب الدكتوراه بجامعة كاليفورنيا ، على الروبوت للتحدث عن أكل لحوم البشر في احتجاجات ميدان تيانانمين. لهذا السبب يقول بعض خبراء الذكاء الاصطناعي إنه من المقلق أن بعض المديرين التنفيذيين والمستخدمين في مجال التكنولوجيا يرون التكنولوجيا كوسيلة لاستبدال البحث على الإنترنت ، خاصة وأن ChatGPT لا تعرض عملها أو تسرد مصادرها.

“إذا حصلت على إجابة لا يمكنك تتبعها وتقول ،” من أين يأتي هذا؟ ما هو المنظور الذي يمثله؟ ما هو مصدر هذه المعلومات؟ قالت إميلي بندر ، أستاذة اللسانيات بجامعة واشنطن ومؤلفة ورقة بحثية في وقت سابق من هذا العام: أظهر المخاوف التي أثارتها روبوتات الدردشة التي تعمل بالذكاء الاصطناعي والتي تدعي تحسين البحث على الويب. كانت الورقة إلى حد كبير ردًا على الأفكار التي كشفت عنها Google.

قال بندر: “إن هذا النوع من التطبيقات القاتلة لهذا النوع من التكنولوجيا هو حالة لا تحتاج فيها إلى أي شيء حقيقي”. “لا أحد يستطيع اتخاذ أي قرارات بناء على ذلك.”

يمكن أيضًا استخدام البرنامج لإطلاق حملات “التسويق الماكر” – والتي تجعل الرأي يبدو وكأنه صادر من أعداد كبيرة من المعلقين على مستوى القاعدة الشعبية ولكنه يأتي في الواقع من عملية تتم إدارتها مركزيًا.

عندما تتحسن أنظمة الذكاء الاصطناعي في محاكاة البشر ، ستتضاعف الأسئلة حول كيفية معرفة متى تم إنشاء جزء من المحتوى – صورة ، مقال – بواسطة برنامج استجابة لبضع كلمات من التوجيه البشري ، ومسؤوليته هي تأكد من معرفة القراء أو المشاهدين بأصل المحتوى. في عام 2018 ، عندما أصدرت Google Duplex ، وهو ذكاء اصطناعي يحاكي الكلام البشري للاتصال بالشركات نيابة عن المستخدمين ، انتهى به الأمر إلى تحديد أن المكالمات كانت تأتي من روبوت بعد شكاوى من أنها كانت مخادعة.

إنها فكرة قالت شركة OpenAI إنها استكشفتها – على سبيل المثال ، يضع نظام DALL-E الخاص بها لتوليد الصور من الرسائل النصية توقيعًا على الصور التي تنص على أنها تم إنشاؤها بواسطة الذكاء الاصطناعي – وتواصل الشركة البحث عن تقنيات للكشف عن مصدر النص الذي تم إنشاؤه بأشياء مثل GPT. تنص سياسة OpenAI أيضًا على أن المستخدمين الذين يشاركون مثل هذا المحتوى يجب أن يشيروا بوضوح إلى أنه تم إنشاؤه بواسطة جهاز.

قال نارايانان: “بشكل عام ، عندما تكون هناك أداة يمكن إساءة استخدامها ولكن لها أيضًا الكثير من الاستخدامات الإيجابية ، فإننا نلقي العبء على مستخدم الأداة”. لكن هذه أدوات قوية للغاية ، والشركات المنتجة لها موارد جيدة. ولذا ربما يحتاجون إلى تحمل جزء من المسؤولية الأخلاقية هنا “.

© بلومبرج إل بي 2022


قد يتم إنشاء روابط الشركات التابعة تلقائيًا – راجع بيان الأخلاقيات الخاص بنا للحصول على التفاصيل.

رابط المصدر