تنتشر حمى ChatGPT إلى أماكن العمل في الولايات المتحدة ، وتثير الشركات مخاوف بشأن تسريبات الملكية الفكرية

يتجه العديد من العمال في جميع أنحاء الولايات المتحدة إلى ChatGPT للمساعدة في المهام الأساسية ، وفقًا لاستطلاع أجرته رويترز / Ipsos ، على الرغم من المخاوف التي دفعت أرباب العمل مثل Microsoft و Google إلى الحد من استخدامه. تدرس الشركات في جميع أنحاء العالم كيفية الاستفادة المثلى من ChatGPT ، وهو برنامج chatbot يستخدم الذكاء الاصطناعي التوليدي لإجراء محادثات مع المستخدمين والإجابة على المطالبات التي لا تعد ولا تحصى. أثارت شركات وشركات الأمن مخاوف ، مع ذلك ، من أنه يمكن أن يؤدي إلى الملكية الفكرية وتسريبات الاستراتيجية.

أمثلة قصصية لأشخاص يستخدمون ChatGPT للمساعدة في عملهم اليومي بما في ذلك صياغة رسائل البريد الإلكتروني وتلخيص المستندات وإجراء بحث أولي.

قال حوالي 28 بالمائة من المشاركين في الاستطلاع عبر الإنترنت حول الذكاء الاصطناعي (AI) بين 11 و 17 يوليو إنهم يستخدمون ChatGPT بانتظام في العمل ، بينما قال 22 بالمائة فقط إن أرباب عملهم سمحوا صراحة بمثل هذه الأدوات الخارجية.

كان استطلاع رويترز / إبسوس الذي شمل 2625 بالغًا في جميع أنحاء الولايات المتحدة لديه فاصل مصداقية ، وهو مقياس للدقة ، بنحو نقطتين مئويتين.

قال حوالي 10 في المائة ممن شملهم الاستطلاع إن رؤسائهم حظروا صراحة أدوات الذكاء الاصطناعي الخارجية ، بينما لم يعرف حوالي 25 في المائة ما إذا كانت شركتهم تسمح باستخدام التكنولوجيا أم لا.

أصبح ChatGPT التطبيق الأسرع نموًا في التاريخ بعد إطلاقه في نوفمبر. لقد أحدثت الإثارة والإنذار على حد سواء ، مما أدى إلى دخول مطور OpenAI إلى صراع مع المنظمين ، لا سيما في أوروبا ، حيث أثار جمع البيانات الجماعي للشركة انتقادات من هيئات مراقبة الخصوصية.

قد يقرأ المراجعون البشريون من الشركات الأخرى أيًا من الدردشات التي تم إنشاؤها ، ووجد الباحثون أن الذكاء الاصطناعي المماثل يمكن أن يعيد إنتاج البيانات التي امتصها أثناء التدريب ، مما يخلق خطرًا محتملاً على معلومات الملكية.

قال بن كينج ، نائب رئيس ثقة العملاء في شركة Okta لأمن الشركات: “لا يفهم الناس كيفية استخدام البيانات عند استخدامهم لخدمات الذكاء الاصطناعي التوليفية”.

قال كينج: “بالنسبة للشركات ، هذا أمر بالغ الأهمية ، لأن المستخدمين ليس لديهم عقد مع العديد من أنظمة الذكاء الاصطناعي – لأنها خدمة مجانية – لذلك لن تضطر الشركات إلى المخاطرة من خلال عملية التقييم المعتادة”.

رفضت شركة OpenAI التعليق عندما سُئلت عن الآثار المترتبة على استخدام الموظفين الفرديين ChatGPT ، لكنها سلطت الضوء على منشور مدونة حديث للشركة يؤكد لشركاء الشركة أن بياناتهم لن تُستخدم لتدريب روبوت المحادثة بشكل أكبر ما لم يمنحوا إذنًا صريحًا.

عندما يستخدم الأشخاص Google’s Bard ، فإنه يجمع بيانات مثل النص والموقع ومعلومات الاستخدام الأخرى. تسمح الشركة للمستخدمين بحذف النشاط السابق من حساباتهم وطلب إزالة المحتوى الذي يتم إدخاله في الذكاء الاصطناعي. رفضت شركة Google المملوكة لشركة Alphabet التعليق عندما طُلب منها مزيد من التفاصيل.

ولم ترد مايكروسوفت على الفور على طلب للتعليق.

مهام غير مؤذية

قال موظف في Tinder في الولايات المتحدة إن العاملين في تطبيق المواعدة استخدموا ChatGPT من أجل “مهام غير ضارة” مثل كتابة رسائل البريد الإلكتروني على الرغم من أن الشركة لا تسمح بذلك رسميًا.

قال الموظف ، الذي رفض الكشف عن اسمه لأنهم لم يكونوا مخول بالتحدث مع المراسلين.

قال الموظف إن Tinder لديها “قاعدة لا ChatGPT” لكن الموظفين ما زالوا يستخدمونها “بطريقة عامة لا تكشف عن أي شيء عن وجودنا في Tinder”.

لم تتمكن رويترز من التأكد بشكل مستقل من كيفية استخدام الموظفين في Tinder لـ ChatGPT. وقالت Tinder إنها قدمت “إرشادات منتظمة للموظفين بشأن أفضل ممارسات الأمان والبيانات”.

في مايو ، حظرت Samsung Electronics الموظفين على مستوى العالم من استخدام ChatGPT وأدوات الذكاء الاصطناعي المماثلة بعد اكتشاف أن أحد الموظفين قد قام بتحميل رمز حساس على النظام الأساسي.

قالت سامسونج في بيان صدر في 3 أغسطس: “إننا نراجع التدابير اللازمة لخلق بيئة آمنة للاستخدام التوليدي للذكاء الاصطناعي الذي يعزز إنتاجية الموظفين وكفاءتهم”.

“ومع ذلك ، إلى أن تصبح هذه الإجراءات جاهزة ، فإننا نقيد مؤقتًا استخدام الذكاء الاصطناعي التوليدي من خلال أجهزة الشركة.”

ذكرت وكالة رويترز في يونيو أن شركة Alphabet حذرت الموظفين من كيفية استخدامهم لبرامج الدردشة بما في ذلك Bard من Google ، في نفس الوقت الذي تقوم فيه بتسويق البرنامج على مستوى العالم.

قالت جوجل إنه على الرغم من أن Bard يمكنها تقديم اقتراحات تعليمات برمجية غير مرغوب فيها ، إلا أنها تساعد المبرمجين. وقالت أيضًا إنها تهدف إلى أن تكون شفافة بشأن قيود تقنيتها.

بطانية الحظر

قالت بعض الشركات لرويترز إنها تتبنى ChatGPT ومنصات مماثلة مع مراعاة الأمن.

قال متحدث باسم شركة Coca-Cola في أتلانتا ، جورجيا ، “لقد بدأنا الاختبار والتعلم حول كيفية تعزيز الذكاء الاصطناعي للفعالية التشغيلية” ، مضيفًا أن البيانات تظل داخل جدار الحماية الخاص بها.

قال المتحدث باسم الشركة: “داخليًا ، أطلقنا مؤخرًا نسخة مؤسستنا من Coca-Cola ChatGPT للإنتاجية” ، مضيفًا أن شركة Coca-Cola تخطط لاستخدام الذكاء الاصطناعي لتحسين فعالية وإنتاجية فرقها.

في غضون ذلك ، قال داون ألين ، المدير المالي لشركة Tate & Lyle ، لرويترز إن صانع المكونات العالمية كان يختبر ChatGPT ، بعد أن “وجد طريقة لاستخدامه بطريقة آمنة”.

“لدينا فرق مختلفة تقرر كيف يريدون استخدامها من خلال سلسلة من التجارب. هل يجب أن نستخدمها في علاقات المستثمرين؟ هل يجب أن نستخدمها في إدارة المعرفة؟ كيف يمكننا استخدامها لتنفيذ المهام بشكل أكثر كفاءة؟”

يقول بعض الموظفين إنهم لا يستطيعون الوصول إلى النظام الأساسي على أجهزة كمبيوتر الشركة على الإطلاق.

قال موظف في شركة بروكتر آند جامبل ، رغب في عدم الكشف عن هويته لأنه غير مصرح له بالتحدث إلى الصحافة: “إنه محظور تمامًا على شبكة المكاتب لأنه لا يعمل”.

وامتنعت شركة بروكتر آند جامبل عن التعليق. لم تتمكن رويترز بشكل مستقل من تأكيد ما إذا كان الموظفون في P&G غير قادرين على استخدام ChatGPT.

قال بول لويس ، كبير مسؤولي أمن المعلومات في شركة Nominet للأمن السيبراني ، إن الشركات كانت محقة في توخي الحذر.

وقال: “يستفيد الجميع من هذه القدرة المتزايدة ، لكن المعلومات ليست آمنة تمامًا ويمكن تعديلها” ، مستشهداً بـ “المطالبات الخبيثة” التي يمكن استخدامها لجعل روبوتات الدردشة بالذكاء الاصطناعي تكشف عن المعلومات.

قال لويس: “الحظر الشامل ليس له ما يبرره بعد ، لكننا بحاجة إلى السير بحذر”.

© طومسون رويترز 2023


قد يتم إنشاء روابط الشركات التابعة تلقائيًا – راجع بيان الأخلاقيات الخاص بنا للحصول على التفاصيل.

رابط المصدر