المشرعون الأمريكيون يتصارعون مع تنظيم الذكاء الاصطناعي دون إجماع واضح على القواعد الحاكمة

يتصارع المشرعون الأمريكيون مع الحواجز التي يجب وضعها حول الذكاء الاصطناعي المزدهر ، ولكن بعد أشهر من جذب ChatGPT انتباه واشنطن ، فإن الإجماع بعيد عن أن يكون مؤكدًا.

تظهر المقابلات مع أحد أعضاء مجلس الشيوخ الأمريكي وموظفي الكونغرس وشركات الذكاء الاصطناعي ومجموعات المصالح أن هناك عددًا من الخيارات قيد المناقشة.

تركز بعض المقترحات على الذكاء الاصطناعي الذي قد يعرض حياة الناس أو سبل عيشهم للخطر ، كما هو الحال في الطب والتمويل. تشمل الاحتمالات الأخرى قواعد لضمان عدم استخدام الذكاء الاصطناعي للتمييز أو انتهاك الحقوق المدنية لشخص ما.

هناك جدل آخر يدور حول ما إذا كان يجب تنظيم مطور الذكاء الاصطناعي أو الشركة التي تستخدمه للتفاعل مع المستهلكين. وناقشت شركة OpenAI ، الشركة الناشئة وراء برنامج ChatGPT ذي الإحساس بالروبوتات ، منظمًا مستقلًا للذكاء الاصطناعي.

من غير المؤكد ما هي الأساليب التي ستنتصر ، لكن البعض في مجتمع الأعمال ، بما في ذلك IBM وغرفة التجارة الأمريكية ، يفضلون النهج الذي ينظم فقط المجالات الحرجة مثل التشخيصات الطبية ، والتي يسمونها النهج القائم على المخاطر.

قال جوردان كرينشو من مركز مشاركة التكنولوجيا بالغرفة ، إنه إذا قرر الكونجرس أن هناك قوانين جديدة ضرورية ، فإن لجنة الذكاء الاصطناعي التابعة للغرفة الأمريكية تدعو إلى “تحديد المخاطر من خلال التأثير على الأفراد”. “قد لا تشكل توصية الفيديو خطورة كبيرة مثل القرارات التي يتم اتخاذها بشأن الصحة أو الشؤون المالية.”

أثار ارتفاع شعبية ما يسمى بالذكاء الاصطناعي التوليدي ، والذي يستخدم البيانات لإنشاء محتوى جديد مثل نثر ChatGPT الذي يبدو كأنه إنسان ، القلق من أن التكنولوجيا سريعة التطور يمكن أن تشجع الغش في الامتحانات ، وتغذي المعلومات المضللة وتؤدي إلى جيل جديد من عمليات الاحتيال.

أدى الضجيج في مجال الذكاء الاصطناعي إلى سلسلة من الاجتماعات ، بما في ذلك زيارة البيت الأبيض هذا الشهر من قبل الرؤساء التنفيذيين لـ OpenAI وداعمها Microsoft و Alphabet. التقى الرئيس جو بايدن بالرؤساء التنفيذيين.

يقول مساعدو الكونجرس وخبراء التكنولوجيا إن الكونجرس منخرط بالمثل.

قال جاك كلارك ، الشريك المؤسس لشركة أنثروبيك الناشئة الرائدة في مجال الذكاء الاصطناعي ، والتي حضر رئيسها التنفيذي أيضًا اجتماع البيت الأبيض: “استيقظ الموظفون على نطاق واسع في مجلسي النواب والشيوخ وطُلب منهم جميعًا الالتفاف حول هذا الأمر”. “يريد الناس التفوق على الذكاء الاصطناعي ، ويرجع ذلك جزئيًا إلى شعورهم بأنهم لم يتقدموا على وسائل التواصل الاجتماعي.”

وقال آدم كوفاسيفيتش ، رئيس غرفة التقدم المؤيدة للتكنولوجيا ، مع تسريع المشرعين ، فإن الأولوية الرئيسية لشركة Big Tech هي الضغط ضد “المبالغة في رد الفعل المبكر”.

وفي حين أن المشرعين مثل زعيم الأغلبية في مجلس الشيوخ تشاك شومر مصممون على معالجة قضايا الذكاء الاصطناعي بطريقة من الحزبين ، فإن الحقيقة هي أن الكونجرس مستقطب ، والانتخابات الرئاسية العام المقبل ، والمشرعون يعالجون قضايا كبيرة أخرى ، مثل رفع سقف الديون.

تتطلب خطة شومر المقترحة خبراء مستقلين لاختبار تقنيات الذكاء الاصطناعي الجديدة قبل إصدارها. كما يدعو إلى الشفافية وتزويد الحكومة بالبيانات التي تحتاجها لتجنب الضرر.

الإدارة الحكومية التفصيلية

يعني النهج القائم على المخاطر أن الذكاء الاصطناعي المستخدم في تشخيص السرطان ، على سبيل المثال ، سيخضع للتدقيق من قبل إدارة الغذاء والدواء ، بينما لن يتم تنظيم الذكاء الاصطناعي لأغراض الترفيه. لقد تحرك الاتحاد الأوروبي نحو تمرير قواعد مماثلة.

لكن التركيز على المخاطر يبدو غير كافٍ بالنسبة للسيناتور الديمقراطي مايكل بينيت ، الذي قدم مشروع قانون يدعو إلى تشكيل فريق عمل حكومي للذكاء الاصطناعي. وقال إنه يدعو إلى “نهج قائم على القيم” لإعطاء الأولوية للخصوصية والحريات المدنية والحقوق.

أضاف أحد مساعدي بينيت أن القواعد القائمة على المخاطر قد تكون صارمة للغاية وتفشل في التقاط مخاطر مثل استخدام الذكاء الاصطناعي للتوصية بمقاطع الفيديو التي تعزز التفوق الأبيض.

ناقش المشرعون أيضًا أفضل السبل لضمان عدم استخدام الذكاء الاصطناعي للتمييز العنصري ، ربما في تحديد من يحصل على رهن عقاري منخفض الفائدة ، وفقًا لشخص تابع لمناقشات في الكونجرس غير مصرح له بالتحدث إلى المراسلين.

في OpenAI ، فكر الموظفون في إشراف أوسع.

كولين أوكيف ، عالم أبحاث OpenAI ، اقترح في حديث في أبريل في جامعة ستانفورد إنشاء وكالة من شأنها أن تفرض على الشركات الحصول على التراخيص قبل تدريب نماذج الذكاء الاصطناعي القوية أو تشغيل مراكز البيانات التي تسهلها. وقال O’Keefe إن الوكالة يمكن أن يطلق عليها اسم مكتب سلامة وأمن البنية التحتية للذكاء الاصطناعي ، أو OASIS.

وردا على سؤال حول الاقتراح ، قالت ميرا موراتي ، كبيرة مسؤولي التكنولوجيا في OpenAI ، إن هيئة جديرة بالثقة يمكن أن “تحاسب المطورين” على معايير السلامة. لكن الأهم من الآليات كان الاتفاق على “ماهية المعايير ، وما هي المخاطر التي تحاول التخفيف منها”.

كان آخر منظم رئيسي تم إنشاؤه هو مكتب حماية المستهلك المالي ، والذي تم إنشاؤه بعد الأزمة المالية 2007-2008.

قد يرفض بعض الجمهوريين أي تنظيم للذكاء الاصطناعي.

وقال مساعد جمهوري في مجلس الشيوخ لرويترز “يجب أن نكون حريصين على ألا تصبح المقترحات التنظيمية للذكاء الاصطناعي آلية للإدارة الحكومية التفصيلية لشفرات الكمبيوتر مثل محركات البحث والخوارزميات.”

© طومسون رويترز 2023


رأى Google I / O 2023 أن Google تخبرنا مرارًا وتكرارًا أنها تهتم بالذكاء الاصطناعي ، جنبًا إلى جنب مع إطلاق أول هاتف قابل للطي وجهاز لوحي يحمل علامة Pixel. هذا العام ، ستقوم الشركة بتزويد تطبيقاتها وخدماتها ونظام التشغيل Android بتقنية الذكاء الاصطناعي. نناقش هذا والمزيد على Orbital ، بودكاست Gadgets 360. Orbital متاح في سبوتيفيو جاناو JioSaavnو جوجل بودكاستو آبل بودكاستو موسيقى أمازون وحيثما تحصل على البودكاست الخاص بك.
قد يتم إنشاء روابط الشركات التابعة تلقائيًا – راجع بيان الأخلاقيات الخاص بنا للحصول على التفاصيل.

رابط المصدر