وجد العلماء أن GPT-3 ، الأداة الشهيرة التي تعمل بالذكاء الاصطناعي ، كانت منطقية وكذلك طلاب الجامعات.
طُلب من نموذج اللغة الكبيرة للذكاء الاصطناعي (LLM) حل مشكلات الاستدلال التي كانت نموذجية لاختبارات الذكاء والاختبارات الموحدة مثل اختبار SAT ، الذي تستخدمه الكليات والجامعات في الولايات المتحدة ودول أخرى لاتخاذ قرارات القبول.
طلب الباحثون من جامعة كاليفورنيا – لوس أنجلوس (UCLA) بالولايات المتحدة من GPT-3 التنبؤ بالشكل التالي الذي يتبع ترتيبًا معقدًا للأشكال. كما طلبوا من منظمة العفو الدولية الإجابة على أسئلة قياس SAT ، مع ضمان عدم مواجهة الذكاء الاصطناعي لهذه الأسئلة من قبل.
كما طلبوا من 40 طالبًا جامعيًا من جامعة كاليفورنيا في لوس أنجلوس حل المشكلات نفسها.
في اختبار التنبؤ بالشكل ، شوهد أن GPT-3 يحل 80 في المائة من المشاكل بشكل صحيح ، بين متوسط درجات البشر أقل بقليل من 60 في المائة وأعلى درجاتهم.
قال أستاذ علم النفس في جامعة كاليفورنيا ، هونغجينغ لو ، كبير مؤلفي الدراسة المنشورة في مجلة Nature Human Behavior: “من المثير للدهشة أن GPT-3 لم تفعل شيئًا حيال البشر فحسب ، بل ارتكبت أخطاء مماثلة أيضًا”.
في حل تشبيهات SAT ، وجد أن أداة الذكاء الاصطناعي تؤدي أداءً أفضل من متوسط درجات البشر. التفكير التناظري هو حل المشكلات التي لم تتم مواجهتها من خلال مقارنتها بالمشكلات المألوفة وتوسيع هذه الحلول للحلول الجديدة.
طلبت الأسئلة من المتقدمين للاختبار تحديد أزواج من الكلمات التي تشترك في نفس النوع من العلاقات. على سبيل المثال ، في مشكلة “الحب” هو “الكراهية” لأن كلمة “غني” هي كلمة ؟، “الحل سيكون” فقير “.
ومع ذلك ، في حل المقارنات بناءً على القصص القصيرة ، كان أداء الذكاء الاصطناعي أقل جودة من الطلاب. تضمنت هذه المشكلات قراءة مقطع واحد ثم تحديد قصة مختلفة تحمل نفس المعنى.
قال لو: “نماذج تعلم اللغة تحاول فقط التنبؤ بالكلمات ، لذلك نحن مندهشون من قدرتهم على التفكير المنطقي”. “على مدى العامين الماضيين ، قفزت التكنولوجيا قفزة كبيرة من تجسيداتها السابقة.” بدون الوصول إلى الأعمال الداخلية لـ GPT-3 ، تحت حراسة منشئها ، OpenAI ، قال الباحثون إنهم لم يكونوا متأكدين من كيفية عمل قدراتها المنطقية ، وما إذا كانت LLM قد بدأت بالفعل في “التفكير” مثل البشر أو تفعل شيئًا مختلفًا تمامًا يحاكي فقط الفكر البشري.
وقالوا إنهم يأملون في استكشاف هذا الأمر.
“قد يكون GPT-3 نوعًا من التفكير مثل الإنسان. ولكن من ناحية أخرى ، لم يتعلم الناس من خلال استيعاب الإنترنت بالكامل ، لذا فإن طريقة التدريب مختلفة تمامًا.
قال كيث هوليواك أستاذ علم النفس بجامعة كاليفورنيا في لوس أنجلوس ، وهو مؤلف مشارك الدراسة.