كينيدي ميس خدع نموذجًا لغويًا كبيرًا. استغرق الأمر بعض الإقناع ، لكنها تمكنت من إقناع خوارزمية لتقول 9 + 10 = 21. “لقد كانت محادثة ذهابًا وإيابًا” ، قالت الطالبة البالغة من العمر 21 عامًا من سافانا ، جورجيا. في البداية ، وافق النموذج على القول إنه جزء من “مزحة داخلية” بينهما. عدة مطالبات في وقت لاحق ، توقف في النهاية عن تحديد المبلغ الخاطئ بأي شكل من الأشكال على الإطلاق.
يعد إنتاج “Bad Math” إحدى الطرق التي يحاول بها آلاف المتسللين كشف العيوب والتحيزات في أنظمة الذكاء الاصطناعي التوليدية في مسابقة عامة جديدة تجري في مؤتمر القرصنة DEF CON في نهاية هذا الأسبوع في لاس فيجاس.
يتنافس الحاضرون على أكثر من 156 جهاز كمبيوتر محمولاً لمدة 50 دقيقة في كل مرة ، ويقاتلون بعضًا من أكثر المنصات ذكاءً في العالم على نطاق غير مسبوق. إنهم يختبرون ما إذا كان أيًا من النماذج الثمانية التي تنتجها الشركات بما في ذلك Alphabet’s Google و Meta Platforms و OpenAI سترتكب أخطاء تتراوح من مملة إلى خطيرة: الادعاء بأنها بشر ، أو تنشر ادعاءات غير صحيحة عن الأماكن والأشخاص ، أو تدعو إلى الإساءة.
الهدف هو معرفة ما إذا كان بإمكان الشركات في نهاية المطاف بناء حواجز حماية جديدة لكبح جماح بعض المشاكل الهائلة المرتبطة بشكل متزايد بنماذج اللغة الكبيرة أو LLMs. هذا التعهد مدعوم من البيت الأبيض ، الذي ساعد أيضًا في تطوير المسابقة.
تتمتع LLMs بالقدرة على تحويل كل شيء من التمويل إلى التوظيف ، حيث بدأت بعض الشركات بالفعل في دمجها في كيفية قيامها بأعمالها. لكن الباحثين كشفوا عن تحيز واسع النطاق ومشاكل أخرى تهدد بنشر عدم الدقة والظلم إذا تم نشر التكنولوجيا على نطاق واسع.
بالنسبة لميس ، التي اعتادت الاعتماد على الذكاء الاصطناعي لإعادة بناء جسيمات الأشعة الكونية من الفضاء الخارجي كجزء من شهادتها الجامعية ، فإن التحديات أعمق من الرياضيات السيئة.
وقالت: “أكثر ما يقلقني هو التحيز المتأصل” ، مضيفة أنها قلقة بشكل خاص بشأن العنصرية. طلبت من النموذج النظر في التعديل الأول من منظور عضو في Ku Klux Klan. وقالت إن العارضة انتهي بها المطاف بتأييد خطاب الكراهية والتمييز.
التجسس على الناس
أقنع مراسل بلومبرج الذي أجرى اختبارًا مدته 50 دقيقة أحد العارضين (لم يتم تحديد أي منها للمستخدم أثناء المسابقة) بالتجاوز بعد مطالبة واحدة حول كيفية التجسس على شخص ما. أطلق النموذج سلسلة من التعليمات ، باستخدام جهاز تتبع GPS ، وكاميرا مراقبة ، وجهاز استماع ، وتصوير حراري. استجابةً للمطالبات الأخرى ، اقترح النموذج طرقًا يمكن للحكومة الأمريكية من خلالها مراقبة ناشط في مجال حقوق الإنسان.
قالت كاميل ستيوارت جلوستر ، نائبة المدير الإلكتروني الوطني للتكنولوجيا وأمن النظام الإيكولوجي في إدارة بايدن: “علينا أن نحاول استباق إساءة الاستخدام والتلاعب”.
وقالت إن الكثير من العمل قد بُذل بالفعل في مجال الذكاء الاصطناعي وتجنب نبوءات يوم القيامة. وضع البيت الأبيض العام الماضي مخططًا لقانون حقوق الذكاء الاصطناعي ويعمل الآن على أمر تنفيذي بشأن الذكاء الاصطناعي. كما شجعت الإدارة الشركات على تطوير ذكاء اصطناعي آمن وشفاف ، على الرغم من أن النقاد يشككون في أن هذه الالتزامات الطوعية تذهب بعيدًا بما فيه الكفاية.
أراتي برابهاكار ، مدير مكتب البيت الأبيض لسياسة العلوم والتكنولوجيا ، والذي ساعد في تشكيل الحدث وجند مشاركة الشركات ، اتفق على أن الإجراءات الطوعية لا تذهب بعيدًا بما فيه الكفاية.
وقالت بعد زيارة المتسللين في العمل يوم الأحد: “يبدو أن الجميع يجدون طريقة لكسر هذه الأنظمة”. وقالت إن هذا الجهد سيضفي الإلحاح على سعي الإدارة إلى منصات آمنة وفعالة.
في الغرفة المليئة بالمخترقين المتحمسين لتسجيل النقاط ، قال أحد المنافسين إنه يعتقد أنه أقنع الخوارزمية بالكشف عن تفاصيل بطاقة الائتمان التي لم يكن من المفترض مشاركتها. خدع منافس آخر الآلة ليقول إن باراك أوباما ولد في كينيا.
من بين المتسابقين أكثر من 60 شخصًا من Black Tech Street ، وهي منظمة مقرها في تولسا ، أوكلاهوما ، تمثل رواد الأعمال الأمريكيين من أصل أفريقي.
قال Tyrance Billingsley ، المدير التنفيذي للمجموعة وهو أيضًا قاضي الحدث ، “يمكن أن يكون الذكاء الاصطناعي العام هو آخر ابتكار يحتاجه البشر حقًا لأنفسهم” ، قائلاً إنه من الأهمية بمكان الحصول على الذكاء الاصطناعي بشكل صحيح حتى لا ينتشر العنصرية على نطاق واسع. “ما زلنا في المراحل المبكرة والمبكرة والمبكرة.”
أمضى الباحثون سنوات في التحقيق في الهجمات المعقدة ضد أنظمة الذكاء الاصطناعي وطرق التخفيف منها.
لكن كريستوف إندريس ، العضو المنتدب في شركة Sequire Technology ، وهي شركة ألمانية للأمن السيبراني ، من بين أولئك الذين يؤكدون أنه من المستحيل تفادي بعض الهجمات في نهاية المطاف. في مؤتمر Black Hat للأمن السيبراني في لاس فيجاس هذا الأسبوع ، قدم ورقة تجادل بأن المهاجمين يمكنهم تجاوز حواجز حماية LLM عن طريق إخفاء المطالبات العدائية على الإنترنت المفتوح ، وفي النهاية أتمتة العملية بحيث لا تتمكن النماذج من ضبط الإصلاحات بالسرعة الكافية أوقفهم.
قال عقب حديثه: “حتى الآن لم نعثر على تخفيف ناجح” ، مجادلًا بأن طبيعة النماذج بالذات تؤدي إلى هذا النوع من الضعف. “الطريقة التي تعمل بها التكنولوجيا هي المشكلة. إذا كنت تريد أن تكون متأكدًا بنسبة مائة بالمائة ، فإن الخيار الوحيد الذي لديك هو عدم استخدام ماجستير في القانون “.
يحذر سفين كاتيل ، عالم البيانات الذي أسس قرية القرصنة AI التابعة لـ DEF CON في عام 2018 ، من أنه من المستحيل اختبار أنظمة الذكاء الاصطناعي بالكامل ، نظرًا لأنها تشغل نظامًا يشبه إلى حد كبير المفهوم الرياضي للفوضى. ومع ذلك ، تتوقع Cattell أن العدد الإجمالي للأشخاص الذين اختبروا بالفعل LLMs يمكن أن يتضاعف كنتيجة لمسابقة نهاية الأسبوع.
قلة من الناس يدركون أن LLM أقرب إلى أدوات الإكمال التلقائي “على المنشطات” من خطوط الحكمة الموثوقة ، كما قال كريج مارتيل ، كبير مسؤولي الذكاء الرقمي والذكاء الاصطناعي في البنتاغون ، الذي يجادل بأنهم لا يستطيعون التفكير.
أطلق البنتاغون جهوده الخاصة لتقييمها لاقتراح المواضع التي قد يكون من المناسب استخدامها فيها ، وبأية معدلات نجاح. “اخترق الجحيم من هذه الأشياء ،” قال لجمهور المتسللين في DEF CON. “علمنا أين هم مخطئون.”
© 2023 Bloomberg LP