بدا الصوت على الهاتف حقيقيًا بشكل مخيف – سمعت أم أمريكية ابنتها تبكي قبل أن يتولى رجل السلطة ويطالب بفدية. لكن الفتاة كانت مستنسخة من الذكاء الاصطناعي وكان الاختطاف مزيفًا.
يقول الخبراء إن الخطر الأكبر للذكاء الاصطناعي هو قدرته على هدم الحدود بين الواقع والخيال ، ومنح مجرمي الإنترنت تقنية رخيصة وفعالة لنشر المعلومات المضللة.
في سلالة جديدة من عمليات الاحتيال التي هزت السلطات الأمريكية ، يستخدم المحتالون أدوات استنساخ صوت AI مقنعة بشكل مذهل – متوفرة على نطاق واسع عبر الإنترنت – للسرقة من الأشخاص عن طريق انتحال صفة أفراد الأسرة.
سمعت جينيفر ديستيفانو ، وهي أم مقيمة في أريزونا ، صوتًا يقول على الطرف الآخر من السطر: “ساعدني يا أمي ، أرجوك ساعدني”.
كانت ديستيفانو مقتنعة “بنسبة 100 بالمائة” بأن ابنتها البالغة من العمر 15 عامًا كانت تعاني من ضائقة شديدة أثناء تواجدها في رحلة تزلج.
وقالت ديستيفانو لمحطة تلفزيونية محلية في أبريل / نيسان “لم يكن السؤال مطلقا من هذه؟ لقد كان صوتها تماما … كانت الطريقة التي كانت تبكي بها”.
“لم أشك ولو لثانية واحدة في أنها كانت هي”.
طالب المحتال الذي تولى المكالمة ، والتي جاءت من رقم غير مألوف لديستيفانو ، بما يصل إلى مليون دولار (حوالي 8.2 كرور روبية).
انتهت الحيلة التي تعمل بالذكاء الاصطناعي في غضون دقائق عندما اتصلت DeStefano بابنتها. لكن القضية المروعة ، التي تخضع الآن لتحقيق الشرطة ، سلطت الضوء على احتمال قيام مجرمي الإنترنت بإساءة استخدام نسخ الذكاء الاصطناعي.
احتيال الأجداد
وقال وسيم خالد الرئيس التنفيذي لشركة بلاك بيرد لوكالة فرانس برس ان “استنساخ الصوت بالذكاء الاصطناعي ، الذي لا يمكن تمييزه تقريبا عن الكلام البشري ، يسمح لممثلي التهديد مثل المحتالين باستخراج المعلومات والأموال من الضحايا بشكل أكثر فعالية”.
ينتج عن البحث البسيط على الإنترنت مجموعة واسعة من التطبيقات ، يتوفر العديد منها مجانًا ، لإنشاء أصوات AI باستخدام عينة صغيرة – أحيانًا بضع ثوانٍ فقط – من صوت شخص حقيقي يمكن سرقته بسهولة من المحتوى المنشور عبر الإنترنت.
قال خالد: “باستخدام عينة صوتية صغيرة ، يمكن استخدام استنساخ صوت بالذكاء الاصطناعي لترك رسائل بريد صوتي ونصوص صوتية. ويمكن حتى استخدامه كمغير صوتي مباشر في المكالمات الهاتفية”.
“يمكن للمحتالين استخدام لهجات أو أجناس مختلفة أو حتى تقليد أنماط الكلام لأحبائهم. [The technology] يسمح بإنشاء مزيفة عميقة مقنعة “.
في دراسة استقصائية عالمية شملت 7000 شخص من تسع دول ، بما في ذلك الولايات المتحدة ، قال واحد من كل أربعة أشخاص إنهم تعرضوا لعملية احتيال لاستنساخ الصوت باستخدام الذكاء الاصطناعي أو يعرفون شخصًا قام بذلك.
قال سبعون بالمائة من المستجيبين إنهم غير واثقين من قدرتهم على “معرفة الفرق بين الصوت المستنسخ والشيء الحقيقي” ، حسبما جاء في الاستطلاع الذي نشرته الشهر الماضي شركة McAfee Labs ومقرها الولايات المتحدة.
حذر المسؤولون الأمريكيون من تصاعد ما يُعرف عمومًا باسم “احتيال الأجداد” – حيث يتظاهر المحتال بأنه حفيد بحاجة ماسة إلى المال في موقف عصيب.
قالت لجنة التجارة الفيدرالية الأمريكية: “تتلقى مكالمة. هناك صوت مذعور على الخط. إنه حفيدك. يقول إنه في ورطة عميقة – لقد حطم السيارة وسقط في السجن. ولكن يمكنك المساعدة بإرسال الأموال” في تحذير مارس.
“يبدو مثله تمامًا. كيف يمكن أن يكون عملية احتيال؟ استنساخ الصوت ، هكذا.”
في التعليقات تحت تحذير لجنة التجارة الفيدرالية كانت هناك شهادات متعددة لكبار السن الذين تم خداعهم بهذه الطريقة.
“ضار”
يعكس ذلك أيضًا تجربة إيدي ، البالغ من العمر 19 عامًا في شيكاغو ، والذي تلقى جده مكالمة من شخص بدا مثله تمامًا ، مدعيًا أنه بحاجة إلى المال بعد حادث سيارة.
كانت الحيلة ، التي أبلغت عنها شركة McAfee Labs ، مقنعة للغاية لدرجة أن جده بدأ على وجه السرعة في جمع الأموال معًا ، بل وفكر في إعادة رهن منزله ، قبل اكتشاف الكذبة.
وقال هاني فريد الأستاذ في كلية الإعلام بجامعة بيركلي لوكالة فرانس برس “لأنه أصبح من السهل الآن إنتاج نسخ صوتية واقعية للغاية … فكل شخص تقريبا لديه أي وجود على الإنترنت معرض لهجوم”.
“هذه الحيل تكتسب زخما وتنتشر.”
في وقت سابق من هذا العام ، اعترفت شركة ElevenLabs الناشئة بالذكاء الاصطناعي بأن أداة استنساخ الصوت الخاصة بها يمكن أن يساء استخدامها “لأغراض خبيثة” بعد أن نشر المستخدمون صوتًا مزيفًا عميقًا يزعم أنه الممثل إيما واتسون يقرأ سيرة أدولف هتلر “كفاحي”.
وقال غال تال هوشبيرج ، كبير مسؤولي التكنولوجيا في شركة رأس المال الاستثماري Team8 ، لوكالة فرانس برس: “نقترب بسرعة من النقطة التي لا يمكنك فيها الوثوق بالأشياء التي تراها على الإنترنت”.
قال: “سنحتاج إلى تقنية جديدة لنعرف ما إذا كان الشخص الذي تعتقد أنك تتحدث إليه هو في الواقع الشخص الذي تتحدث إليه”.