مساحة إعلانية

الاثنين، 20 نوفمبر 2023

مايكروسوفت تقدم أداة إنشاء "التزييف العميق"

 كان حدث Ignite 2023 مليئاً بالمفاجآت، وجاءت إحداها عندما قدمت مايكروسوفت أداة قادرة على إنشاء صور رمزية واقعية وتحريكها لتقول أشياء لم يقلها الشخص الحقيقي. هذا التطور، المعروف باسم الصورة الرمزية لتحويل النص إلى كلام من Azure AI، متاح للعرض العام ويثير أسئلة أخلاقية أساسية.

باستخدام هذه الأداة الجديدة، يمكن للمستخدمين إنشاء مقاطع فيديو لشخصية أفاتار تتحدث عن طريق تحميل صور الشخص وكتابة السيناريو. يقوم نموذج تم تدريبه بواسطة مايكروسوفت  بتحريك الصورة الرمزية، بينما يقوم نموذج آخر لتحويل النص إلى كلام - تم إنشاؤه مسبقًا أو تم تدريبه باستخدام صوت الشخص وقراءة النص بصوت عالٍ. يمكن استخدام هذه الصورة الرمزية لإنشاء مقاطع فيديو تدريبية ومقدمات عن المنتجات وشهادات العملاء والمزيد، وذلك ببساطة باستخدام النص. 

تدرك مايكروسوفت أنه يمكن إساءة استخدام هذه الأداة، وفي الواقع تم استخدام تقنيات مماثلة لإنتاج الدعاية والأخبار المزيفة، لذلك، في البداية، لن يتمكن معظم مشتركي Azure من الوصول إلا إلى الصور الرمزية المعدة مسبقًا. الصور الرمزية المخصصة متاحة فقط عند التسجيل وفي حالات استخدام معينة.

تطلب مايكروسوفت من عملاء الصور الرمزية المخصصة الحصول على "إذن كتابي صريح" وبيانات الموافقة من موهبة الصورة الرمزية.

من ناحية أخرى، يمكن لقدرة جديدة ضمن خدمة الصوت العصبي الشخصية من مايكروسوفت نسخ صوت المستخدم في بضع ثوانٍ باستخدام عينة كلام مدتها دقيقة واحدة. تحظر مايكروسوفت استخدام الخطابات المسجلة مسبقًا وتتطلب "موافقة صريحة" من المستخدم، مع تقييد الوصول إلى هذه الميزة من خلال نموذج التسجيل. في هذه الحالة، يجب أن يوافق العملاء على استخدام الصوت الشخصي فقط في التطبيقات التي لا يقرأ فيها الصوت المحتوى الذي أنشأه المستخدم أو المحتوى الذي تم إنشاؤه يدويًا.

وفيما يتعلق بالأصوات، أضافت مايكروسوفت أنه سيتم إضافة العلامات المائية تلقائيًا إلى الأصوات الشخصية، على الرغم من أن اكتشاف هذه العلامات في تطبيق أو منصة يتطلب موافقة مايكروسوفت.

ورغم أن مبادرة مايكروسوفت واعدة من الناحية التكنولوجية، إلا أنها تفتح نقاشا نقديا حول الأخلاق والأمن في عصر الذكاء الاصطناعي. 



source http://www.igli5.com/2023/11/blog-post_22.html

ليست هناك تعليقات

جميع الحقوق محفوظة لــ Th3EastNews 2015 ©