علاء مصطفى يكتب | التزييف العميق .. تكلم حتى لا أراك

0 356

يستخدم مصطلح الـ Deepfake أو “التزييف العميق” لوصف نوع من تقنيات الذكاء الاصطناعي (AI) وتكنولوجيا التعلم الآلي (ML) التي تستخدم لإنشاء محتوى صوتي أو فيديو اصطناعي واقعي ولكن مقنع لمن يسمعه أو يشاهده. المصطلح عبارة عن مزيج من كلمتي “التعلم العميق” و “المزيف” ، ويشير إلى استخدام التقنيات الحديثة لمعالجة البيانات بطريقة مستوحاة من الدماغ البشري، لإنشاء محتوى مسموع أو مرئي معقد ومركب، لا يمكن تمييزه تقريبًا عن المحتوى الحقيقي.

أولى تطبيقات هذه التقنية ظهرت في عام 1997، من خلال تطبيق Video Rewrite “فيديو ريرايت”، الذي ساعد على صنع فيديو مزيف لشخص ما يتكلم في أي موضوع، بإستخدام فيديو آخر قديم لنفس الشخص يتحدث في موضوع آخر، مع تغيير كلامه تماما.

تتمتع تقنية الـ Deepfake أو “التزييف العميق” بإمكانية إحداث ثورة في العديد من المجالات، بما في ذلك الترفيه والصحافة والتعليم. في صناعة السينما، على سبيل المثال، يمكن استخدام تقنية الـ deepfake لإنشاء مشاهد وتأثيرات خاصة وواقعية، يصعب تنفيذها في الواقع أو قد تكون عالية التكلفة، مثل إضافة ممثلين إلى لقطات تاريخية أو إنشاء شخصيات جديدة تمامًا في الأفلام والبرامج التلفزيونية.

ورغم كل ذلك، فإن تقنية الـ Deepfake يمكن أيضًا استخدامها لأغراض غير أخلاقية ومشينة، مثل صنع أخبار مزيفة أو نشر معلومات مضللة أو اختلاق صور غير حقيقية، وتم رصد حالات عديدة من مقاطع الفيديو المزيفة التي تستخدم للتلاعب بالانتخابات ونشر الدعاية.

من أبرز الاستخدامات الغير أخلاقية لتقنية الـ Deepfake أو التزييف العميق هي تشويه سمعة السياسيين و التأثير على الرأي العام، من خلال بث فيديوهات غير حقيقية، لنشر معلومات على لسان أحد السياسيين؛ فعلى سبيل المثال في أبريل 2018 نشر فيديو للرئيس الأميركي السابق باراك أوباما وهو يتحدث على تقنية التزييف العميق ويشرح مخاطرها المحتملة بصوت عال حول هذه ، وهو ما لم يفعله الرئيس الأميركي في الواقع، وفي نفس العام أيضا، أصدر الحزب الاشتراكي البلجيكي فيديو للرئيس دونالد ترامب وهو يهين بلجيكا، وفي يناير 2019 بثت شبكة فوكس التلفزيونية فيديو مفبرك للرئيس ترامب في المكتب البيضاوي، مصنوعا بتقنية التزييف العميق.

واحدة من التحديات الرئيسية لتكنولوجيا الـ Deepfake هي صعوبة اكتشافها، في حين أن هناك بعض التقنيات التي يتم تطويرها بشكل دائم ومستمر، يمكن استخدامها لتحديد ما إذا كان المحتوى المعروض تم تزييفه بتقنية التزييف العميق أم لا، إلا أن نتائجها ليست مضمونة ويمكن غالبًا هزيمتها من خلال إبداعا وتحديثات تقنية التزييف العميق الأكثر تعقيدًا.

استجابة للتأثيرات السلبية المحتملة لتقنية Deepfake، برزت العديد من الأصوات التي تدعو إلى المزيد من البحث والتطوير في طرق اكتشاف محتوى التزييف العميق والتخفيف منه، كما دعا بعض الخبراء إلى أهمية وضع قوانين ولوائح وأطر تنظيمية جديدة لمعالجة ومواجهة آثار إساءة استخدام تقنية التزييف العميق.

بشكل عام، تمثل تقنية الـ Deepfake أو “التزييف العميق” تقدمًا تقنيًا كبيرًا ولها تأثير مباشر في كثير من المجالات والصناعات، ولكنها تمثل أيضا تهديدًا محتملاً للمجتمع وآثار سلبية لا حصر لها، وفي رأيي أنه من المهم و الضروري أن ننظر بعناية في الآثار الأخلاقية والاجتماعية لهذه التقنية مبكرا، وأن نتخذ خطوات لضمان استخدامها بشكل مسؤول.

اترك رد

لن يتم نشر عنوان بريدك الإلكتروني.