تقوم OpenAI بمعاينة أداة الصوت “Voice Engine” التي يمكنها استنساخ الأصوات البشرية خلال 15 ثانية من الصوت

تشارك شركة OpenAI النتائج الأولية لاختبار ميزة يمكنها قراءة الكلمات بصوت عالٍ بصوت بشري مقنع، مما يسلط الضوء على حدود جديدة للذكاء الاصطناعي ويثير شبح مخاطر التزييف العميق. وقال متحدث باسم الشركة إن الشركة تشارك العروض التوضيحية المبكرة وحالات الاستخدام من معاينة صغيرة الحجم لنموذج تحويل النص إلى كلام، المسمى Voice Engine، والتي شاركتها مع حوالي 10 مطورين حتى الآن. قررت شركة OpenAI عدم نشر هذه الميزة على نطاق أوسع، والتي أطلعت الصحفيين عليها في وقت سابق من هذا الشهر.

وقال متحدث باسم OpenAI إن الشركة قررت تقليص الإصدار بعد تلقي تعليقات من أصحاب المصلحة مثل صانعي السياسات وخبراء الصناعة والمعلمين والمبدعين. وكانت الشركة قد خططت في البداية لإصدار الأداة لما يصل إلى 100 مطور من خلال عملية التقديم، وفقًا للمؤتمر الصحفي السابق.

وكتبت الشركة في تدوينة يوم الجمعة: “نحن ندرك أن توليد خطاب يشبه أصوات الناس ينطوي على مخاطر جسيمة، والتي تتصدر اهتماماتنا بشكل خاص في عام الانتخابات”. “نحن نتعامل مع الشركاء الأمريكيين والدوليين من مختلف أنحاء الحكومة ووسائل الإعلام والترفيه والتعليم والمجتمع المدني وخارجها لضمان دمج ملاحظاتهم أثناء البناء.”

وقد تم بالفعل استخدام تقنيات الذكاء الاصطناعي الأخرى لتزييف الأصوات في بعض السياقات. في يناير/كانون الثاني، شجعت مكالمة هاتفية زائفة، لكنها تبدو واقعية، يُزعم أنها من الرئيس جو بايدن، الناس في نيو هامبشاير على عدم التصويت في الانتخابات التمهيدية – وهو الحدث الذي أثار مخاوف الذكاء الاصطناعي قبل الانتخابات العالمية الحاسمة.

على عكس جهود OpenAI السابقة في إنشاء محتوى صوتي، يمكن لـ Voice Engine إنشاء كلام يبدو كأفراد، مكتملًا بإيقاعهم ونغماتهم المحددة. كل ما يحتاجه البرنامج هو 15 ثانية من الصوت المسجل لشخص يتحدث لإعادة إنشاء صوته.

أثناء عرض توضيحي للأداة، استمعت بلومبرج إلى مقطع للرئيس التنفيذي لشركة OpenAI، سام ألتمان، وهو يشرح بإيجاز التكنولوجيا بصوت لا يمكن تمييزه عن خطابه الفعلي، ولكنه تم إنشاؤه بالكامل بواسطة الذكاء الاصطناعي.

قال جيف هاريس، مدير المنتجات في OpenAI: “إذا كان لديك الإعداد الصوتي الصحيح، فهو في الأساس صوت من العيار البشري”. “إنها جودة فنية مثيرة للإعجاب.” ومع ذلك، قال هاريس: “من الواضح أن هناك قدرًا كبيرًا من حساسية السلامة حول القدرة على محاكاة الكلام البشري بدقة.”

أحد شركاء التطوير الحاليين لـ OpenAI الذين يستخدمون الأداة، معهد نورمان برينس لعلوم الأعصاب في النظام الصحي غير الربحي Lifespan، يستخدم التكنولوجيا لمساعدة المرضى على استعادة أصواتهم. على سبيل المثال، تم استخدام الأداة لاستعادة صوت مريضة شابة فقدت قدرتها على التحدث بوضوح بسبب ورم في المخ عن طريق تكرار كلامها من تسجيل سابق لمشروع مدرسي، حسبما جاء في منشور مدونة الشركة.

يمكن لنموذج الكلام المخصص لـ OpenAI أيضًا ترجمة الصوت الذي يصدره إلى لغات مختلفة. وهذا يجعله مفيدًا للشركات العاملة في مجال الصوت، مثل Spotify Technology SA. لقد استخدمت Spotify بالفعل هذه التكنولوجيا في برنامجها التجريبي الخاص لترجمة ملفات podcast للمضيفين المشهورين مثل Lex Fridman. كما روجت OpenAI أيضًا للتطبيقات المفيدة الأخرى للتكنولوجيا، مثل إنشاء نطاق أوسع من الأصوات للمحتوى التعليمي للأطفال.

في برنامج الاختبار، تطلب OpenAI من شركائها الموافقة على سياسات الاستخدام الخاصة بها، والحصول على موافقة المتحدث الأصلي قبل استخدام صوتهم، والكشف للمستمعين أن الأصوات التي يسمعونها هي أصوات تم إنشاؤها بواسطة الذكاء الاصطناعي. وتقوم الشركة أيضًا بتثبيت علامة مائية صوتية غير مسموعة للسماح لها بتمييز ما إذا كان قد تم إنشاء جزء من الصوت بواسطة أداتها.

قبل اتخاذ قرار بشأن إطلاق الميزة على نطاق أوسع، قالت OpenAI إنها تطلب تعليقات من خبراء خارجيين. وقالت الشركة في منشور بالمدونة: “من المهم أن يفهم الناس في جميع أنحاء العالم إلى أين تتجه هذه التكنولوجيا، سواء قمنا بنشرها على نطاق واسع بأنفسنا أم لا”.

وكتبت OpenAI أيضًا أنها تأمل أن تؤدي معاينة برمجياتها إلى “تحفيز الحاجة إلى تعزيز مرونة المجتمع” في مواجهة التحديات التي تفرضها تقنيات الذكاء الاصطناعي الأكثر تقدمًا. على سبيل المثال، دعت الشركة البنوك إلى التخلص التدريجي من المصادقة الصوتية كإجراء أمني للوصول إلى الحسابات المصرفية والمعلومات الحساسة. كما أنها تسعى إلى تثقيف الجمهور حول محتوى الذكاء الاصطناعي المخادع والمزيد من تطوير التقنيات لاكتشاف ما إذا كان المحتوى الصوتي حقيقيًا أم تم إنشاؤه بواسطة الذكاء الاصطناعي.

© 2024 بلومبرج إل بي


(لم يتم تحرير هذه القصة بواسطة فريق عمل NDTV وتم إنشاؤها تلقائيًا من موجز مشترك.)

قد يتم إنشاء الروابط التابعة تلقائيًا – راجع بيان الأخلاقيات الخاص بنا للحصول على التفاصيل.

رابط المصدر