فتحت لجنة التجارة الفيدرالية الأمريكية تحقيقًا في ChatGPT Maker OpenAI ، وتطالب شركة بخرق قوانين حماية المستهلك: تقرير

ذكرت صحيفة واشنطن بوست يوم الخميس أن لجنة التجارة الفيدرالية الأمريكية فتحت تحقيقًا في شركة OpenAI ، الشركة المصنعة ChatGPT ، بشأن مزاعم بأنها تتعارض مع قوانين حماية المستهلك من خلال تعريض السمعة الشخصية والبيانات للخطر.

تمثل هذه الخطوة المبلغ عنها أقوى تهديد تنظيمي للشركة الناشئة المدعومة من Microsoft والتي أطلقت جنونًا في الذكاء الاصطناعي التوليدي ، مما جذب المستهلكين والشركات مع إثارة المخاوف بشأن مخاطرها المحتملة.

وقالت الصحيفة نقلاً عن وثيقة إن لجنة التجارة الفيدرالية (FTC) أرسلت هذا الأسبوع طلبًا من 20 صفحة للسجلات حول كيفية معالجة OpenAI للمخاطر المتعلقة بنماذج الذكاء الاصطناعي الخاصة بها. وأضافت الصحيفة أن الوكالة تحقق فيما إذا كانت الشركة قد تورطت في ممارسات غير عادلة أو خادعة أدت إلى “الإضرار بسمعتها” للمستهلكين.

ولم ترد FTC و OpenAI على الفور على طلبات رويترز للتعليق.

مع تسارع وتيرة السباق لتطوير خدمات ذكاء اصطناعي أكثر قوة ، يتزايد التدقيق التنظيمي للتكنولوجيا التي يمكن أن تقلب الطريقة التي تعمل بها المجتمعات والشركات.

تهدف الجهات التنظيمية العالمية إلى تطبيق القواعد الحالية التي تغطي كل شيء من حقوق النشر وخصوصية البيانات إلى مسألتين رئيسيتين: البيانات التي يتم إدخالها في النماذج والمحتوى الذي تنتجه ، حسبما أفادت رويترز في مايو.

في الولايات المتحدة ، دعت الأغلبية في مجلس الشيوخ تشاك شومر إلى “تشريع شامل” للنهوض بالضمانات المتعلقة بالذكاء الاصطناعي وضمانها ، وستعقد سلسلة من المنتديات في وقت لاحق من هذا العام.

واجهت شركة OpenAI أيضًا في شهر مارس مشكلات في إيطاليا ، حيث قامت الجهة التنظيمية بإيقاف تطبيق ChatGPT بسبب اتهامات بأن OpenAI انتهكت اللائحة العامة لحماية البيانات (GDPR) للاتحاد الأوروبي – وهو نظام خصوصية واسع النطاق تم سنه في عام 2018.

تمت إعادة ChatGPT لاحقًا بعد أن وافقت الشركة الأمريكية على تثبيت ميزات التحقق من العمر والسماح للمستخدمين الأوروبيين بحظر استخدام معلوماتهم لتدريب نموذج الذكاء الاصطناعي.

© طومسون رويترز 2023


قد يتم إنشاء روابط الشركات التابعة تلقائيًا – راجع بيان الأخلاقيات الخاص بنا للحصول على التفاصيل.

رابط المصدر