أثار الاحتيال في شمال الصين الذي استخدم تقنية “التزييف العميق” المتطورة لإقناع رجل بتحويل الأموال إلى صديق مفترض مخاوف بشأن إمكانات تقنيات الذكاء الاصطناعي (AI) للمساعدة في الجرائم المالية.
عمدت الصين إلى تشديد الرقابة على مثل هذه التكنولوجيا والتطبيقات وسط ارتفاع في عمليات الاحتيال المدفوعة بالذكاء الاصطناعي ، والتي تنطوي بشكل أساسي على التلاعب ببيانات الصوت والوجه ، واعتمدت قواعد جديدة في يناير لحماية الضحايا قانونًا.
قالت الشرطة في مدينة باوتو ، في منطقة منغوليا الداخلية ، إن الجاني استخدم تقنية مبادلة الوجه التي تعمل بالذكاء الاصطناعي لانتحال شخصية صديق للضحية خلال مكالمة فيديو وتلقي تحويل 4.3 مليون يوان صيني (622 ألف دولار ، تقريبًا روبية). 5،15،52،000).
وقالت الشرطة في بيان يوم السبت إنه حول الأموال معتقدًا أن صديقه كان بحاجة إلى إيداع خلال عملية تقديم العطاءات.
وأضافت الشرطة أن الرجل أدرك أنه تعرض للخداع فقط بعد أن عبر الصديق عن جهله بالموقف ، قائلة إنهم استعادوا معظم الأموال المسروقة ويعملون على تعقب الباقي.
أطلقت القضية العنان للنقاش على موقع المدونات الصغيرة Weibo حول التهديد للخصوصية والأمان عبر الإنترنت ، حيث حصل الهاشتاغ “# عمليات الاحتيال على الإنترنت في جميع أنحاء البلاد” على أكثر من 120 مليون مشاهدة يوم الاثنين.
كتب أحد المستخدمين: “هذا يدل على أن الصور والأصوات ومقاطع الفيديو يمكن استخدامها من قبل المحتالين”. “هل يمكن لقواعد أمن المعلومات مواكبة تقنيات هؤلاء الأشخاص؟”
© طومسون رويترز 2023