مواضيع علمية
تقنيات مرعبة... انتحال شخصيتك أصبح واقعا الان !
هل سمعت عن الفيديوهات المفبركة ؟!! بالتأكيد سمعت عنها، مرحبا بك فى عالم الخداع الرقمى، لا تتعجب إن شاهدت نفسك تقول او تفعل أشياء لا تعرف عنها شيئاً!!
طور مجموعة باحثين فى جامعة واشنطن عام 2017 محاكاة أصطناعية للرئيس الاسبق للولايات المتحدة الامريكية باراك أوباما بأستخدام خوارزميات ذكاء أصطناعى صنعت نموذجا ثلاثى الابعاد قادراً على تقمص حركة فمهبعد تغذية البرنامج ب14 ساعة من مقاطعه المسجله.
تقنيات الذكاء الاصطناعى أصبحت قادرة على التلاعب بمقاطع الصوت و الفيديو و صنعت ما أصبح يعرف بالفبركة العميقة -"deepfake" أو القدرة على الفبركة الرقمية للأصوات و المشاهد .
جامعة ستانفورد |
طورت جامعة ستانفورد تقنية "face to face" القادرة على تركيب تعابير وجه شخص لأخر مباشرة عبر الكاميرا .
أما باحثوا جامعة ألاباما فى برمنفهام فعملو على برمجيات تقليد الاصوات، مختبرين القدرة على أختراق منظوماات التحقق من الصوت،و أستخدمو فى الاختبار أداة "festvox"
لتصنيع الاصوات التى طورها باحثو جامعتى إدنبره و كارنيفى ميلون و التى تعمل على تغير صوت المتكلم إلى نبرة صوت الضحيه، ووصلت نسبة النجاح فى خداع احدث المنظومات التحقق إلى 90%.
lyrebird مثال آخرعلى برامج التصنيع الصوتى القادرة على تحويل أى نص مكتوب إلى مقطع بصوت أحد الاشخاص عبر تغذيتها بتسجيلات سابقة لا تتجاوز بضع دقائق لذالك الصوت.
تعتمد هذه التقنية على ما يسمى التعلم العميق "deep learning" و الشبكات العصبية الاصطناعية، أى تطوير خوارزمات تساعد الحاسوب على العمل كما الدماغ البشرى، كما تقوم هذه الشبكات بربط مقاطع الصوت لتكون كلاما مترابطا بصوت ما.
يمكن اليوم لأى مستخدم فبركة مقاطع الفيديو و أشخاص مشهورة بأستخدام تطبيقات "the deep fake" المتوفرة بسهولة على إلانترنت،و دفعت مخاطر هذه التكنولوجيا وزارة الدفاع الامريكية و وكالة مشاريع البحوث المتطورة الدفاعية "darpa" إلى محاولة تطوير تقنيات مضادة لكشف التلاعب الرقمى.
فهل ستشعل تكنولوجيا الفبركة حروب الاكاذيب ؟؟؟
Post a Comment