قال رئيس الصناعة في الاتحاد الأوروبي ، تيري بريتون ، إن قواعد الذكاء الاصطناعي الجديدة المقترحة ستهدف إلى معالجة المخاوف بشأن المخاطر المتعلقة ببرنامج الدردشة ChatGPT وتكنولوجيا الذكاء الاصطناعي ، في التعليقات الأولى على التطبيق من قبل مسؤول كبير في بروكسل.
بعد شهرين فقط من إطلاقه ، تم تصنيف ChatGPT – الذي يمكنه إنشاء مقالات ومقالات ونكات وحتى شعر استجابة للمطالبات – على أنه تطبيق المستهلك الأسرع نموًا في التاريخ.
أثار بعض الخبراء مخاوف من أن الأنظمة التي تستخدمها مثل هذه التطبيقات يمكن أن يساء استخدامها في السرقة الأدبية والاحتيال ونشر المعلومات الخاطئة ، حتى في الوقت الذي يصفه فيه أبطال الذكاء الاصطناعي بأنه قفزة تكنولوجية.
قال بريتون إن المخاطر التي يشكلها ChatGPT – من بنات أفكار OpenAI ، وهي شركة خاصة مدعومة من Microsoft – وأنظمة الذكاء الاصطناعي أكدت الحاجة الملحة للقواعد التي اقترحها العام الماضي في محاولة لوضع المعيار العالمي للتكنولوجيا. القواعد قيد المناقشة حاليا في بروكسل.
وقال لرويترز في تعليقات مكتوبة: “كما أوضحت ChatGPT ، يمكن لحلول الذكاء الاصطناعي أن توفر فرصًا رائعة للشركات والمواطنين ، لكنها قد تشكل أيضًا مخاطر. ولهذا السبب نحتاج إلى إطار تنظيمي قوي لضمان الذكاء الاصطناعي الموثوق به استنادًا إلى بيانات عالية الجودة.” .
ورفضت مايكروسوفت التعليق على بيان بريتون. أوبن إيه آي – الذي يستخدم تطبيقه تقنية تسمى الذكاء الاصطناعي التوليدي – لم يستجب على الفور لطلب للتعليق.
قالت شركة OpenAI على موقعها الإلكتروني إنها تهدف إلى إنتاج ذكاء اصطناعي “يفيد البشرية جمعاء” في الوقت الذي تحاول فيه بناء ذكاء اصطناعي آمن ومفيد.
بموجب مسودة قواعد الاتحاد الأوروبي ، يعتبر ChatGPT نظام ذكاء اصطناعي للأغراض العامة يمكن استخدامه لأغراض متعددة بما في ذلك الأغراض عالية المخاطر مثل اختيار المرشحين للوظائف وتسجيل الائتمان.
يريد Breton أن تتعاون OpenAI بشكل وثيق مع مطوري أنظمة الذكاء الاصطناعي عالية المخاطر لتمكين امتثالهم لقانون الذكاء الاصطناعي المقترح.
قال شريك في شركة محاماة أمريكية: “إن حقيقة أن الذكاء الاصطناعي التوليدي قد تم تضمينه حديثًا في التعريف يظهر السرعة التي تتطور بها التكنولوجيا وأن المنظمين يكافحون لمواكبة هذه الوتيرة”.
مخاوف من “مخاطر عالية”
تشعر الشركات بالقلق من تصنيف تقنيتها ضمن فئة الذكاء الاصطناعي “عالية المخاطر” مما قد يؤدي إلى متطلبات امتثال أكثر صرامة وتكاليف أعلى ، وفقًا لمسؤولين تنفيذيين في العديد من الشركات المشاركة في تطوير الذكاء الاصطناعي.
أظهر مسح أجرته الهيئة الصناعية التطبيقية للذكاء الاصطناعي أن 51 بالمائة من المستجيبين يتوقعون تباطؤًا في أنشطة تطوير الذكاء الاصطناعي نتيجة لقانون الذكاء الاصطناعي.
كتب رئيس مايكروسوفت براد سميث في مدونة يوم الأربعاء أن لوائح منظمة العفو الدولية الفعالة يجب أن تركز على التطبيقات الأكثر خطورة.
قال: “هناك أيام أشعر فيها بالتفاؤل ولحظات أشعر فيها بالتشاؤم بشأن كيفية استخدام البشرية للذكاء الاصطناعي”.
قال بريتون إن المفوضية الأوروبية تعمل عن كثب مع مجلس الاتحاد الأوروبي والبرلمان الأوروبي لزيادة توضيح القواعد في قانون الذكاء الاصطناعي لأنظمة الذكاء الاصطناعي للأغراض العامة.
وقال: “سيحتاج الناس إلى إعلامهم بأنهم يتعاملون مع روبوت محادثة وليس مع إنسان. الشفافية مهمة أيضًا فيما يتعلق بخطر التحيز والمعلومات الخاطئة”.
تحتاج نماذج الذكاء الاصطناعي التوليدية إلى التدريب على كمية هائلة من النصوص أو الصور لإنشاء استجابة مناسبة تؤدي إلى مزاعم انتهاكات حقوق النشر.
وقال بريتون إن المناقشات المقبلة مع المشرعين حول قواعد الذكاء الاصطناعي ستغطي هذه الجوانب.
دفعت المخاوف بشأن الانتحال من قبل الطلاب بعض المدارس الحكومية الأمريكية والجامعة الفرنسية Science Po إلى حظر استخدام ChatGPT.
© طومسون رويترز 2023