تطبيقات الذكاء الاصطناعي تزييف للحقيقة.. وتحذيرات من آثارها النفسية

دمشق – بشرى سمير:

في عصر التكنولوجيا المتقدمة والذكاء الاصطناعي المتسارع، أصبح تزيف الصور والفيديوهات من أكثر الظواهر خطورة وإثارة للقلق وبتنا نرى مقاطع فيديوهات للفنان الراحل عبد الحليم وهو يغني بألوان زاهية ويرتدي ملابس عصرية إلى حد أنه بات من الصعب تميز فيما إذا كان هذا المحتوى مزيفاً أو حقيقياً.

التزييف العميق
ويوضح المهندس سليم حجيج أن التزييف العميق يعتمد على تقنيات الذكاء الاصطناعي، لإنشاء محتوى رقمي مزيف يبدو حقيقياً بشكل مذهل، يتضمن ذلك الصور والفيديوهات والأصوات التي يمكن أن تُستخدم لتزييف أحداث وتحوير الحقائق والتلاعب بالشخصيات العامة والخاصة بطرق دقيقة ومقنعة، وأشار حجيج الى أن وجود تطبيقات تعمل على تطبيق الصور والفديوهات بتقنيات عالية، يثير مخاوف جدية حول النزاهة المعلوماتية والأمن الشخصي، كما يهدد بتقويض الثقة في الوسائط الرقمية والإعلام.

 

اختصاصية نفسية: الوجوه التي يولدها الذكاء الاصطناعي تبدو أكثر واقعية من الوجوه البشرية

ولفت إلى أن خطورة التزييف العميق لا تقتصر على الأفراد فقط، بل تمتد لتشمل تأثيرات عميقة على الشركات والمؤسسات والمجتمعات بشكل عام، ما يتطلب استجابة سريعة وفعالة لمواجهة هذه التحديات المتنامية.
فيما لفت الخبير التقني أنس محفوظ إلى أن التزييف العميق هو مقطع فيديو أو صوت أو صورة لشخص حقيقي تم تعديله والتلاعب به رقمياً غالباً من خلال الذكاء الاصطناعي، وإعداده بشكل مقنع، فأصبحت تقنية النسخ الرقمي لمظهر وسلوك الأشخاص الحقيقيين – أحياءً أو أمواتاً – حقيقة واقعة الآن مع تقدم الذكاء الاصطناعي، واستنساخ الصوت، والتزييف العميق التفاعلي، وهناك العديد من الإمكانيات والتطبيقات المثيرة لاستنساخ الذكاء الاصطناعي.
مشيراً إلى أنه قد يتم ذلك بمعرفة الشخص وإذنه بما في ذلك إنشاء المحتوى بشكل أسرع، وزيادة الإنتاجية الشخصية، وإنشاء إرث رقمي، لكن هذه التكنولوجيا لها جوانب سلبية من حيث عمليات التزييف العميق المضللة والخادعة التي تستخدم نسخاً من الأشخاص تم إنشاؤها بواسطة الذكاء الاصطناعي دون إذنهم.

آثار نفسية ضارة
الدكتورة حنان ضاهر- اختصاصية نفسية- حذرت من الآثار النفسية الضارة المحتملة لاستنساخ الذكاء الاصطناعي، خاصة عندما تتم سرقة نسخ الذكاء الاصطناعي أو التلاعب بها أو إساءة استخدامها بطريقة احتيالية، ما يسبب التوتر والقلق بسبب إساءة استخدام استنساخ الذكاء الاصطناعي، بما في ذلك التزييف العميق حيث إن الكثير من بيانات التدريب اللازمة لاستنساخ صوت أو صورة شخص ما موجودة بالفعل من خلال البث الصوتي، أو مقاطع الفيديو، أو الصور، أو الكتب، أو المقالات، وتشير الأبحاث حول سرقة الهوية وإساءة استخدام التزييف العميق إلى أن استخدام نسخة من الذكاء الاصطناعي دون موافقتهم يمكن أن يؤدي إلى القلق والتوتر ومشاعر العجز والانتهاك، ويُطلق على الخوف من استنساخ الذكاء الاصطناعي اسم “رهاب المثيل”.

عدم الانجرار
ولفتت ضاهر إلى ما سببه التزييف من انعدام الثقة وعدم اليقين حيث يصبح الخط الفاصل بين الواقع والخيال غير واضح، مشيرة إلى أنه غالباً ما يكون من المستحيل على الأشخاص تحديد ما إذا كان الفيديو أو الصورة أو الصوت حقيقياً أو وسائط اصطناعية تم إنشاؤها بواسطة الذكاء الاصطناعي دون تحليل أو العودة إلى الطب الشرعي، وأظهرت الأبحاث أن الوجوه التي يولدها الذكاء الاصطناعي تبدو أكثر واقعية من الوجوه البشرية، وهنا على المشاهدين والمتابعين التأكد وعدم الانجرار وراء كل ما ينشر فيما يتعلق بصحة مواقع التواصل الاجتماعي.
وبحسب ضاهر لقد استغلت بعض الشخصيات العامة مناخ عدم اليقين هذا لصالحها، حيث ألقت بظلال من الشك على مصداقية وسائل الإعلام في ظاهرة تسمى “أرباح الكذاب” وهكذا صار كلّ من يرتكب جرماً مفضوحاً يدعي أنه فوتوشوب قديماً وذكاء اصطناعي حديثاً تظهر الأبحاث في مجال التزييف العميق أن آراء الناس يمكن أن تتأثر بالتفاعل مع نسخة رقمية طبق الأصل، حتى عندما يعلمون أنها ليست الشخص الحقيقي. هذا يمكن أن يخلق ذكريات “كاذبة” لشخص ما، علماً أن الذكريات الكاذبة السلبية يمكن أن تضر بسمعة الشخص الذي تم تصويره، ويمكن أن يكون للذكريات الكاذبة الإيجابية تأثيرات معقدة وغير متوقعة على العلاقات الشخصية أيضًا، وقد يؤدي التفاعل مع استنساخ الذكاء الاصطناعي الخاص بك أيضًا إلى ظهور ذكريات زائفة.

قد يعجبك ايضا
آخر الأخبار