Advertisement

لبنان

صور التزييف العميق.. خطورة تهدد الخصوصية والمجتمعات

زينب زعيتر Zainab Zaiter

|
Lebanon 24
29-08-2023 | 02:30
A-
A+
Doc-P-1102010-638288968036989117.jpg
Doc-P-1102010-638288968036989117.jpg photos 0
facebook
facebook
facebook
telegram
Messenger
Messenger
A+
A-
facebook
facebook
facebook
telegram
Messenger
Messenger
 
هل لكم أن تتخيلوا أنّ صورة هذه الفتاة مركبة كليا بواسطة الذكاء الاصطناعي.ربما لم يعد هذا الامر غريبا على أذهان الناس، ولكن هل تعلمون انّه وعبر الذكاء الاصطناعي  وليس من خلال التقنيات المعروفة القديمة، أصبح بالامكان استخدام برمجيات توليدية للتزييف العميق، او ما بات يُعرف بـ (Deepfake)كاحدى الظواهر المثيرة للجدل والتي أصبحت تشكل قلقا للعالم.
Advertisement
وهنا نتحدث تحديدا عن برمجيات التوليدية للتزييف والتي تعمل على توليف الصور الاباحية لاي شخص، بمجرد أن يتم اختيار صورة من مواقع التواصل الاجتماعي او اي مصدر واعطائها للبرنامج المعالج عبر احدى تقنيات الذكاء الاصطناعي، وهو كفيل باعطاء الشخص ما يريد بشكل مرعب وحقيقي، وأكثر ما يخيف هو امكانية تعرية مجموعة اشخاص في صورة واحدة.
برمجيات خطيرة
باتت هذه البرمجيات منتشرة بشكل واسع، بشكل يتطلب المراقبة والتحذير والوعي اولا واخيرا، وخصوصا بعدما بات هذا الامر وهذه التقنيات امرا واقعا لا مفر منه، في ظل عصف تقني ومساحات مفتوحة في فضاء واسع بلا حدود، ما خلق فوضى قد تتحول الى تهديد عبر مواقع التواصل الاجتماعي في المرحلة المقبلة.
فهل يمكن تقييد هذه البرمجيات، والتبيّن من حقيقتها ام لا؟
يشير الباحث في الفيزياء وتكنولوجيا النانو بالمعهد العالي للفيزياء في باريس الدكتور وسيم جابر، الى أنّه في عصر التطور التكنولوجي السريع، أصبحت التقنيات الجديدة والمبتكرة ذات تأثير ضخم على حياتنا، ويؤكد في حديث مع "لبنان 24" انّه "من بين هذه التقنيات تبرز "التزييف العميق (Deepfake) كإحدى الظواهر المثيرة للجدل والمقلقة على حد سواء. وهي تقنية تسمح بانشاء صور ومقاطع فيديو تبدو وكأنها حقيقية بشكل مذهل، ولكنها في الحقيقة مفبركة بواسطة الذكاء الاصطناعي.".
ويقول جابر: "في عالم يشهد على تزايد في استخدام وسائل التواصل الاجتماعي والإنترنت، تبرز خطورة صور التزييف العميق بوضوح. فباستخدام هذه التقنية والتي بدأت تنتشر على نطاق واسع، يمكن للمستخدمين إنشاء صور ومقاطع فيديو مفبركة تجعل الأمور تبدو وكأنها واقعية للغاية. وهنا تبرز المشكلة: فمن المستحيل تمييز الصور المزيفة عن الصور الحقيقية بسهولة".

ليس للترفيه
اذا ليس من السهل الكشف فيما اذا كانت هذه الصور مفبركة ام لا، ما يعني انّ الخطورة هنا تكبر. ويتابع جابر: "الامر ليس مجرد ترفيه. إن استخدام صور التزييف العميق في الأغراض السلبية يمكن أن يتسبب في تأثيرات كارثية. إذ يمكن لهذه الصور أن تؤدي إلى انتهاك خصوصية الأفراد وإتلاف سمعتهم بشكل كبير. بل وقد تستخدم هذه الصور أيضاً في أغراض الابتزاز، مما يضع ضحاياها في مأزق نفسي واجتماعي خطير".
وأبعد من ذلك يتحدث جابر انّ "الامور لا تتوقف عند هذا الحد، فصور التزييف العميق تساهم في تشويه الصورة العامة للجنسين وتعزيز تصورات غير واقعية حول العلاقات الجنسية. ومع ازدياد انتشارها، قد يتفاقم تأثيرها على المجتمع والثقافة".
كيفية عمل الالية
ولكن السؤال هل من السهل الوصول الى هذه التقنيات ومتوفرة للجميع ام كلا، يجيب جابر: "العملية وراء إنشاء هذه الصور ليست بالأمر البسيط، فهي تعتمد على نماذج تعلم آلي معقدة تُعرف بالمولدات العميقة Deep Generative، ويتم تدريب هذه النماذج باستخدام كميات ضخمة من الصور ومقاطع الفيديو الإباحية الحقيقية باستخدام الشبكات العصبية التوليدية Generative Neural Network - GAN، لتمكينها من تعلم الأنماط والخصائص المميزة. بعد ذلك، تُطلق هذه النماذج لإنتاج محتوى مفبرك يبدو وكأنه حقيقي".
ويقول جابر إنّه لحماية المجتمع من هذه الخطورة، "يجب تطوير وسائل فعّالة للكشف عن الصور التزييفية ومنع إنتشارها. بالإضافة إلى ذلك، يلزم التوعية المستمرة بالجمهور حول وجود هذه التقنية والمخاطر المرتبطة بها". ويؤكد: "إن مكافحة صور التزييف العميق تتطلب جهداً مشتركاً من القطاعات الحكومية والصناعة والمجتمع للحفاظ على الخصوصية والنزاهة في هذا العالم الرقمي المعقد".
 
تأثيرات سلبية
وللصور المزيفة العميقة، وخاصة تلك التي تستخدم في إطار التعرية والصور الإباحية، تأثيرات سلبية متعددة على المجتمع، منها، لا يمكن حصرها في إطار معين يشرحها جابر. فهي اولا تؤدي الى الضرر النفسي للافراد المستهدفين، حيث يمكن أن تؤدي هذه الصور إلى شعور الأفراد المستهدفين بالضيق والخوف والاكتئاب، وقد تصل إلى حد الاكتئاب والقلق. كما يمكن أن تؤثر على العلاقات الشخصية والحياة الاجتماعية للأفراد المستهدفين.
يُضاف الى ذلك الضرر الاجتماعي الذي تنتج عنه، حيث يمكن أن تؤدي هذه الصور إلى تشويه سمعة الأفراد المستهدفين وانتشار الشائعات والأخبار الكاذبة عنهم، مما قد يؤثر على حياتهم المهنية والاجتماعية.
وأبعد من ذلك، قد يؤدي استخدام هذه التقنيات الى زيادة العنف ضد المرأة، إذ يمكن استخدامها للابتزاز أو التشهير أو التشهير بها.
المواجهة
ولمواجهة صور التزييف العميق التي تخدم في إطار التعرية، يمكن اتخاذ عدد من الإجراءات، منها، توعية الأفراد بمخاطر هذه الصور، إذ يجب على الأفراد أن يكونوا على دراية بمخاطر صور التزييف العميق، وأن يكونوا قادرين على تمييزها عن الصور الحقيقية.
وكذلك العمل على تطوير أدوات لاكتشاف صور التزييف العميق، مما يساعد في طبيعة الحال على الحد من انتشارها. والاهم من ذلك هو سن قوانين لمكافحة هذه الصور، مما يساعد على حماية الافراد من اضرارها.
 
واخيرا، هذه بعض الخطوات السريعة التي يمكن للأفراد اتخاذها للحماية من صور التزييف العميق:
1) كن حذراً من الصور التي تراها على الإنترنت: لا تشارك أي صور أو مقاطع فيديو لم تكن متأكدًا من صحتها.
2) تحقق من مصادر الصور قبل مشاركتها: تأكد من أن الصور التي تشاركها مصدرها موثوق.
3) لا تثق في كل ما تراه على الإنترنت: تذكر أن الصور المزيفة العميقة يمكن أن تكون واقعية للغاية.
4) بلّغ السلطات اذا تعرضت لهذه التقنيات او اذا علمت بشخص يستخدمها.
تابع
Advertisement

أخبارنا عبر بريدك الالكتروني

إشترك