يجد المحتالون والمتسللون المشفرون طرقًا جديدة لاختراق تدابير السلامة ، حتى مع تسريع صناعة التشفير من محاولات إضافة طبقات من الأمان المتقدم إلى العديد من الأنظمة الأساسية. يستغل المتسللون والمحتالون الآن تقنية التزييف العميق للذكاء الاصطناعي لخرق أمان تبادلات التشفير والشركات المرتبطة بـ Web3. باستخدام تقنية deepfake AI ، تهدف العناصر سيئة السمعة إلى تجاوز معايير تحديد الهوية التي وضعتها المنصات ، كما قال كبير مسؤولي الأمن في Binance ، جيمي سو ، في مقابلة أجريت معه مؤخرًا
Deepfakes هي صور أو مقاطع فيديو تم إنشاؤها بشكل مصطنع مصممة لتكرار الصوت بشكل مقنع بالإضافة إلى ملامح الوجه وتعبيرات الفرد – سواء أكان حيًا أم متوفًا. يتم استخدام أدوات الذكاء الاصطناعي (AI) والتعلم الآلي (ML) لإنشاء التزييف العميق باستخدام رسومات واقعية.
إذا نجح المحتالون في إنشاء مزيف عميق لمستثمري العملات المشفرة ، فإن ذلك يزيد من فرصهم في تجاوز أمان منصات التشفير وسرقة أموال المستخدمين. “سيبحث المخترق عن صورة عادية للضحية عبر الإنترنت في مكان ما. بناءً على ذلك ، باستخدام أدوات مزيفة عميقة ، يمكنهم إنتاج مقاطع فيديو للقيام بالتجاوز. تتطلب بعض عمليات التحقق من المستخدم ، على سبيل المثال ، أن يغمض عينه اليسرى أو ينظر إلى اليسار أو اليمين ، أو ينظر إلى أعلى أو ينظر إلى أسفل. لقد تم تطوير المنتجات المزيفة العميقة بما يكفي اليوم بحيث يمكنها تنفيذ تلك الأوامر بالفعل “، سو أخبر كوين تليغراف.
منذ بضعة أشهر حتى الآن ، سلط اللاعبون في قطاع التشفير الضوء على التهديد المتزايد الذي تشكله تقنية التزييف العميق الناتجة عن الذكاء الاصطناعي على الضحايا غير المطلعين وغير المرتابين. في فبراير 2023 ، ظهر فيديو التزييف العميق للرئيس التنفيذي لشركة Binance Changpeng Zhao على وسائل التواصل الاجتماعي. في هذا المقطع ، يمكن سماع Zhao الذي تم إنشاؤه بشكل مصطنع وهو يدعو الناس إلى تداول العملات المشفرة معهم حصريًا.
يشكل الذكاء الاصطناعي المزيف العميق تهديدًا خطيرًا للبشرية ، ولم يعد مجرد فكرة بعيدة المنال. لقد عثرت مؤخرًا على مقطع فيديو يظهر مزيفًا عميقًا لـ تضمين التغريدة ، وهو مقنع إلى حد ما. pic.twitter.com/BRCN7KaDgq
– DigitalMicropreneur.eth (rbkasr) 24 فبراير 2023
كما تم رصد مقطع فيديو مماثل لـ Deepfake لـ Elon Musk وهو يشارك نصائح مضللة بشأن الاستثمار في التشفير على وسائل التواصل الاجتماعي في وقت سابق من هذا الشهر.
نظرًا لأن مقاطع الفيديو المزيفة العميقة هذه جذابة للغاية ، فقد لا يتمكن الكثير من الأشخاص من اكتشاف بعض علامات التحذير على أنها مزيفة. في المستقبل القريب ، يتوقع Su أن الذكاء الاصطناعي سيكون قادرًا على اكتشاف الأجزاء غير المستوية من التزييف العميق وسيتحسن جودته.
“عندما ننظر إلى مقاطع الفيديو هذه ، هناك أجزاء معينة منها يمكننا اكتشافها بالعين البشرية. على سبيل المثال ، عندما يُطلب من المستخدم أن يدير رأسه إلى الجانب. سوف يتغلب الذكاء الاصطناعي [them] متأخر , بعد فوات الوقت. لذا ، فهو ليس شيئًا يمكننا الاعتماد عليه دائمًا. حتى لو تمكنا من التحكم في مقاطع الفيديو الخاصة بنا ، فهناك مقاطع فيديو ليست مملوكة لنا. لذا ، هناك شيء واحد ، مرة أخرى ، هو تعليم المستخدم ، “قال سو في المقابلة.
يقدر تقرير حديث من شركة CertiK للأبحاث في blockchain أن 103 مليون دولار (حوالي 840 كرور روبية) قد سُرقت في عمليات استغلال العملة المشفرة هذا العام في أبريل. ظهرت عمليات احتيال الخروج والقروض السريعة كأكبر مصدر للأموال المسروقة في جرائم التشفير. في الأشهر الأربعة الأخيرة من عام 2023 ، تقدر شركة CertiK أن 429.7 مليون دولار (حوالي 3510 كرور روبية) قد سُرقها محتالو التشفير والمتسللون.