التزييف العميق: كيف أصبحت صور المشاهير أداة للاحتيال الرقمي؟
مع التطور السريع في تقنيات الذكاء الاصطناعي، أصبح التزييف العميق (Deepfake) أداة قوية تُستخدم على نطاق واسع في الإعلانات التجارية المضللة، مما يثير مخاوف متزايدة بشأن صدقية المحتوى الرقمي الذي يُنشر.
تعتمد هذه التقنية على خوارزميات متقدمة قادرة على إعادة إنتاج وجوه وأصوات الشخصيات بدقة مذهلة، ما يسمح بإنشاء مقاطع فيديو واقعية تمامًا، لكنها في الحقيقة مزيفة بالكامل. خلال السنوات الأخيرة، استُخدمت هذه التكنولوجيا لترويج منتجات وخدمات لم يكن للمشاهير أيّ علاقة بها، مما أدى إلى خداع المستهلكين وإلحاق أضرار جسيمة بالعلامات التجارية وسُمعة الشخصيات العامة.
يؤكّد الخبراء أنّ انتشار هذه الإعلانات المفبركة يشكل تهديدًا حقيقيًا للصدقية الإعلامية والأخلاقيات التجارية، إذ يستغل التزييف العميق ثقة المستهلكين في الشخصيات العامة للترويج لمنتجات قد تكون مشبوهة أو غير موثوقة. ومع ازدياد سرعة انتشار المحتوى على الإنترنت، أصبح من السهل تضليل الجماهير من خلال مشاهد وصور مصممة باحترافية شديدة.
زيادة كبيرة في عمليات الاحتيال باستخدام صور المشاهير عبر الإنترنت
أظهرت البيانات الحديثة ارتفاعًا ملحوظًا في عمليات الاحتيال، عن طريق انتحال شخصيات المشاهير بنسبة 22 في المئة خلال العام الفائت، ما يجعل هذه الطريقة من أسرع أساليب الاحتيال انتشارًا على الإنترنت.
تستمر الإعلانات المفبركة، التي تستغل صور المشاهير والشخصيات العامة في السيطرة على الفضاء الرقمي، إذ يستخدم المحتالون تقنيات متقدمة مثل الذكاء الاصطناعي والتزييف العميق لخداع المستهلكين.
وفقًا للأرقام الصادرة عن هيئة معايير الإعلان البريطانية (ASA)، شكّلت هذه الإعلانات غالبية التنبيهات التي أُرسلت إلى المنصات الرقمية في عام 2024، ما يثير تساؤلات حقيقية حول قدرة هذه المنصات على مواجهة هذه الظاهرة المتزايدة.
إلى جانب ذلك، كشف نظام تنبيه الإعلانات الاحتيالية التابع لهيئة معايير الإعلان، أنّ الإعلانات التي تحتوي على صور معدّلة أو مزيفة للمشاهير كانت الأكثر تمركزًا في تقارير التنبيه، إذ تم الإبلاغ عن حملات احتيالية استخدمت صور شخصيات بارزة ومشاهير، مثل السياسي البريطاني كير ستارمر، والمستشارة راشيل ريفز، والمذيعة ستايسي سولومون، بالإضافة إلى قاضي برنامج "Strictly Come Dancing" أنطون دو بيك.
وفي السياق ذاته، أوضحت جيسيكا تاي، مديرة المشروع التنظيمي في الهيئة، أنّ الشعبية الكبيرة لأخبار المشاهير تجعلهم هدفًا مثاليًا للمحتالين، إذ يُستغل فضول الجمهور بشأن حياتهم الشخصية لترويج منتجات مزيفة أو عروض احتيالية. مضيفة أنّ هذه الظاهرة ليست جديدة، ولكنها تشهد تطورًا مستمرًا مع تقدم تقنيات الاحتيال، مؤخرًا.
ووفقًا لتقرير الهيئة، فقد أرسلت الهيئة 177 تنبيهًا إلى منصات التواصل الاجتماعي والمواقع الإلكترونية لإزالة الإعلانات الاحتيالية أو اتخاذ إجراءات ضدها، مقارنة بـ152 تنبيهًا في عام 2023، ما يعكس الزيادة الكبيرة في أنشطة الاحتيال الرقمي.
وأضافت الهيئة أنّ منصة إكس كانت من أكثر المنصات تلقيًا لهذه التنبيهات، إذ لم تستجب لـ72 في المئة منها. ومع ذلك، أشار البعض إلى أنّ هذا الانخفاض في الاستجابة قد يكون نتيجة للتغييرات في سياسات إدارة المنصة بعد استحواذ إيلون ماسك عليها في عام 2022. ورغم ذلك، أفادت الهيئة بأنّ التواصل مع المنصة قد تحسن في الأشهر الأخيرة، إذ ارتفعت نسبة الاستجابة إلى 80 في المئة.
هانكس وكينغ: ضحايا الإعلانات المزيفة باستخدام الذكاء الاصطناعي
في حادثة أثارت الكثير من القلق والانتقادات، استُغلت صورة وصوت النجم السينمائي الشهير، توم هانكس، في إعلان تجاري مزيف باستخدام تقنيات الذكاء الاصطناعي. ظهر هانكس في الإعلان الذي انتشر على نطاق واسع عبر الإنترنت، يروّج لمنتج تجميل للأسنان. وقد استُخدمت تقنية التزييف العميق لإنتاج نسخة مزيفة من الممثل، مع تعديل صورته وصوته بشكل مذهل، ما جعل من الصعب على المشاهدين التمييز بين المحتوى المزيف والحقيقي. تم تصميم الإعلان بطريقة احترافية، لدرجة أنّ المتابعين ظنّوا أنّ هانكس نفسه يشارك في الحملة الترويجية للمنتج.
بعد اكتشافه لهذا الإعلان، خرج هانكس بتصريح أكّد فيه أنه لم يُستشر أو يُطلب منه المشاركة فيه، وأوضح أنّ استخدام صورته وصوته تم دون علمه أو موافقته. كما أعرب هانكس عن قلقه الشديد من تزايد استخدام تقنيات الذكاء الاصطناعي في الإعلانات التجارية، ما يسمح للمحتالين باستخدام صور وأصوات المشاهير بدون إذنهم، وهو ما يشكل تهديدًا خطيرًا لصدقية هذه الإعلانات.
وأشار هانكس أيضًا إلى أنّ هذه الظاهرة قد تؤدي إلى تدمير الثقة بين المشاهير وجماهيرهم، إذ يمكن أن يُخدع الجمهور من خلال الإعلانات المزيفة التي تروج لمنتجات قد تكون مشبوهة أو غير قانونية.
وقد أثار هذا الإعلان ردود فعل قوية في المجتمع، فدعت مجموعات حقوق المستهلكين إلى ضرورة فرض قوانين صارمة لتنظيم استخدام الذكاء الاصطناعي في هذه الأنواع من الإعلانات، مع التأكيد على أهمية وضع ضوابط تحمي حقوق الأفراد، وبخاصة المشاهير، من الاستغلال دون موافقتهم.

كما انتشر مقطع فيديو مزيف آخر، تظهر فيه المذيعة جايل كينغ، مقدمة برنامج "CBS This Morning"، وهي تشيد بمنتج لإنقاص الوزن تابع لشركة "Artipet". في الفيديو، يُسمع صوت مزيف يُنسب إلى جايل كينغ، يدعو المتابعين إلى "اكتشاف سرها" في فقدان الوزن.
عقب انتشاره، سارعت كينغ إلى تحذير متابعيها عبر مواقع التواصل الاجتماعي، مؤكدةً أنّ لا علاقة لها لا بالشركة ولا بالمنتج المروج له. وقالت "يستمر الناس في إرسال هذا الفيديو إليّ ويسألونني عن هذا المنتج، لكنني لا علاقة لي بهذه الشركة، لقد نشرت هذا الفيديو للترويج لبرنامجي الإذاعي في 31 أغسطس/آب، وقد تم التلاعب بصوتي والفيديو ليبدو الأمر وكأنني أروج لهذا المنتج، لم أسمع عنه أو أستخدمه من قبل". وأضافت "من فضلكم لا تنخدعوا بمثل هذه المقاطع التي أُنتجت باستخدام الذكاء الاصطناعي".
تقنية التزييف العميق، تفتح أبوابًا واسعة لاستغلال المشاهير في إعلانات غير مصرح بها. لكن رغم الإمكانيات التي توفرها هذه التكنولوجيا، فإن استخدامها بدون موافقة الأشخاص المعنيين يطرح مشكلات قانونية وأخلاقية كبيرة. على الرغم من أنّ العديد من الدول قد بدأت في وضع قوانين لمكافحة مثل هذه الانتهاكات، إلا أنّ تطبيق هذه القوانين ما يزال يشهد صعوبة كبيرة بسبب الطبيعة المتغيرة والمتقدمة للتكنولوجيا.
إعلانات مزيفة تستغل مشاهير للترويج لعمليات احتيال في الرعاية الطبية
في الآونة الأخيرة، انتشرت إعلانات احتيالية على موقع يوتيوب، استهدفت مجموعة من المشاهير البارزين مثل جو روجان، تايلور سويفت، أندرو تيت، ستيف هارفي، ذا روك، وأوبرا، إذ استُخدمت صورهم وأصواتهم لترويج عمليات احتيال في مجال الرعاية الطبية.
هذه الإعلانات المزيفة، التي تم أُنشئت باستخدام تقنيات الذكاء الاصطناعي، حققت أكثر من 195 مليون مشاهدة، وفقًا لقائمة تشغيل تضم أكثر من 1600 مقطع فيديو جُمعت ونُشرت عبر موقع "404 Media".
تتضمن هذه الإعلانات وعودًا مغرية مثل "حزم تحفيز" تغطي فواتير المستشفيات، وتستهدف المشاهدين من خلال عروض مزيفة لا تستند إلى أيّ أساس من الصحة. على سبيل المثال، يظهر في أحد الإعلانات استنساخ صوتي لتايلور سويفت وهي تقول "مرحبًا، أنا تايلور سويفت، هناك حزمة عطلات بقيمة 6400 دولار لتغطية فواتيرك، ولن تحتاج إلى سدادها".

تركز هذه الإعلانات بشكل رئيسي على استغلال المشاهدين ماليًا، وتدعوهم لزيارة مواقع غير موثوقة لتقديم معلومات شخصية أو دفع أموال مقابل وعود وهمية. هذه الإعلانات تشجّع الأفراد على تقديم بياناتهم البنكية أو طلب مدفوعات مقابل "حزم تحفيز" غير موجودة، ما يؤدي إلى فقدان الأموال وعمليات احتيال مالية واسعة النطاق.
من جهة أخرى، يمكن أنّ تتسبب هذه الإعلانات في أضرار صحيّة كبيرة، إذ تُروج لمنتجات طبية أو برامج رعاية صحية مزيفة وغير معتمدة من قبل الجهات الصحية الرسمية. قد يُقنع المشاهدون باستخدام أدوية أو خدمات غير قانونية أو غير معتمدة، ما يعرض صحتهم للخطر. بدلًا من تلقّي العلاج أو الرعاية الطبية الموثوقة، قد ينتهي الأمر بهم إلى استخدام منتجات أو خدمات قد تؤدي إلى مضاعفات صحية خطيرة أو تفاقم مشكلاتهم الطبية.
في سياق مماثل، حذّر الطبيب سانجاي جوبتا، المراسل الطبي الرئيسي لشبكة "CNN" الأميركية، في منشور له عبر حسابه على موقع إكس، من انتشار مئات الإعلانات على مواقع التواصل الاجتماعي، التي تستخدم اسمه وصورته للترويج لمنتجات متعلقة بالقنب.
وأكّد جوبتا أنّ هذه الإعلانات ليست سوى عمليات احتيال وأنّ لا علاقة له بها على الإطلاق. وأشار إلى أنّ هدفه الأساسي هو حماية صحة الأفراد، محذرًا من أنّ تناول هذه المنتجات قد يكون ضارًا. كما دعا متابعيه إلى الإبلاغ عن هذه الإعلانات المضللة على المنصات للتأكد من إزالتها.
كيف يُستغل إيلون ماسك في عمليات الاحتيال بالذكاء الاصطناعي؟
في تزايد جرائم الاحتيال الإلكتروني، أصبح الذكاء الاصطناعي أداة قوية في يد المحتالين، مما أدى إلى ارتفاع ملحوظ في عمليات الاحتيال المالي. من أبرز هذه الجرائم، انتحال هوية الملياردير الأميركي إيلون ماسك، إذ خٌدع آلاف الضحايا حول العالم.
استعرضت إحدى الحالات قصة شخص متقاعد كان يبحث عن فرصة لاستثمار مدخراته. شاهد الشخص مقطع فيديو لإيلون ماسك يروّج لفرصة استثمارية مربحة. وبسبب ثقته في ماسك، قرر استثمار مبلغ 248 دولارًا، لكن مع مرور الوقت، استنزف مدخرات تقاعده ليخسر في النهاية أكثر من 690 ألف دولار في عملية احتيال ممنهجة.
استغل المحتالون مقابلة سابقة لإيلون ماسك في أحد البرامج التلفزيونية، حيث قاموا بتعديل الفيديو واستخدام تقنيات الذكاء الاصطناعي لاستبدال صوته بنسخة مزيفة مطابقة تمامًا. بفضل هذه التقنية، عٌدلت حركات فمه لتتناسب مع النص الجديد الذي أضافه المحتالون، ما جعل الفيديو يبدو وكأن ماسك يروّج لفرصة استثمارية وهمية.
في سياق متصل، تشير تقديرات شركة "ديلويت" إلى أنّ هذه النوعية من المشاهد المزيفة قد تتسبب في خسائر تقدر بمليارات الدولارات سنويًا. من جانبه، أكّد تحليل أجرته شركة "سينسيتي" أنّها راجعت أكثر من ألفي مقطع فيديو تم استخدام تقنيات التزييف العميق فيها، وتوصّلت إلى أنّ إيلون ماسك كان أحد أكثر الشخصيات استخدامًا في هذه المقاطع، إذ ظهر في نحو 25 في المئة من مقاطع الفيديو المزيفة منذ أواخر العام الفائت، و90 في المئة من مقاطع الفيديو التي تركّز على العملات الرقمية.

ميتا تطلق أداة لمكافحة الاحتيال المالي في أستراليا بالتعاون مع البنوك
في خطوة جديدة لمكافحة عمليات الاحتيال المالي التي تستهدف الأستراليين على منصات فيسبوك وانستغرام، أعلنت شركة ميتا عن إطلاق أداة جديدة تحت اسم "Fraud Intelligence Reciprocal Exchange"، بالتعاون مع سبعة بنوك أسترالية. تهدف الأداة إلى تبادل المعلومات حول الاحتيالات المالية، بما في ذلك تلك التي تستخدم صورًا مزيفة لمشاهير أستراليين، مثل ديفيد كوش وجينا راينهارت وأنتوني ألبانيز للترويج لاستثمارات وهمية.

تشير التقارير إلى أنّ أستراليا خسرت من يناير/كانون الثاني إلى أغسطس/آب 2024، أكثر من 43.4 مليون دولار نتيجة للاحتيالات عبر مواقع التواصل الاجتماعي، إذ بلغ مجموع الخسائر من الاحتيالات الاستثمارية المزيفة نحو 30 مليون دولار. وفي إطار الجهود لمكافحة هذه الظاهرة، تم حذف أكثر من تسعة آلاف صفحة مزيفة وثمانية آلاف إعلان استثماري مزيف في الأشهر الستة الأولى من إطلاق الأداة.
تركز الأداة على تقليل عدد الاحتيالات من خلال تبادل المعلومات بين ميتا والبنوك المشاركة في البرنامج، مثل ANZ وCBA وWestpac، مما يتيح للبنوك الإبلاغ عن الأنشطة الاحتيالية على منصات ميتا. كما تساعد الأداة ميتا في الحصول على رؤى حول الأنشطة الاحتيالية التي قد تحدث خارج منصاتها. وبينما يعترف المسؤولون في ميتا بتحديات معالجة التقارير بسرعة، فإنهم يؤكدون أنّ التعاون مع البنوك والهيئات الأخرى سيسهم في تحسين أنظمة الكشف التلقائي.
وفي السياق نفسه، أعلن مساعد وزير الخزانة الأسترالي، ستيفن جونز، عن طرح مسودة تشريعية جديدة تهدف إلى وضع إطار عمل للوقاية من الاحتيالات على منصات التواصل الاجتماعي، ما سيساهم في تعزيز الآليات المتعلقة بالاحتيالات وحماية الضحايا.

جهود متزايدة وتحذيرات حكومية لمكافحة الإعلانات المفبركة
بدأت المواقع الكبرى مثل فيسبوك ويوتيوب في اتخاذ إجراءات صارمة لمكافحة الإعلانات المزيفة. فقد أعلنت يوتيوب عن إزالة أكثر من 15.7 مليون قناة و8.2 مليون فيديو في الربع الأول من العام الفائت، بسبب انتهاكها لسياسات الإعلانات المضللة. من جهة أخرى، صرّحت فيسبوك بأنّها "تعمل على تطوير أنظمة للكشف التلقائي عن هذه الإعلانات، إلا أنّ المحتالين يستمرون في ابتكار استراتيجيات جديدة لتجنب الكشف".
فيما يخص التحذيرات الحكومية، أصدرت عدة جهات رسمية تحذيرات بشأن تزايد عمليات الاحتيال باستخدام تقنيات الذكاء الاصطناعي. إذ أصدرت لجنة الأوراق المالية والعقوبات في هونغ كونغ تحذيرًا من الاحتيالات التي تستخدم فيديوهات مزيفة لشخصيات عامة، بما في ذلك إيلون ماسك. كما أصدرت كل من لجنة التجارة الفيدرالية الأميركية ومكتب التحقيقات الفيدرالي تحذيرات مماثلة بشأن تزايد الاحتيال الرقمي بواسطة الذكاء الاصطناعي.
ومع تزايد انتشار الإعلانات الاحتيالية، يطالب الخبراء بحلول أكثر صرامة لحماية المستهلكين. يرى روسيو كونشا، مدير السياسات في منظمة "Which؟"، أنّ بطء استجابة الأنظمة الحالية يعكس ضعفًا كبيرًا في التعامل مع هذه القضية. رغم أنّ قانون السلامة على الإنترنت "Online Safety Act" يفرض على المنصات مسؤولية منع ظهور الإعلانات الاحتيالية، فإنّ هذه المتطلبات قد لا تدخل حيز التنفيذ حتى عام 2027، مما يثير القلق بشأن استمرار انتشار هذه الأنشطة الاحتيالية. ويطالب الخبراء هيئة "Ofcom" بتسريع تنفيذ القانون وفرض غرامات مالية ضخمة على المنصات التي تتساهل مع هذه الأنشطة.
اقرأ/ي أيضًا
دراسة تكشف ضعف القدرة على اكتشاف التزييف العميق وتزايد التهديدات الرقمية
تستخدم صورًا وأسماء مشاهير: ما مخاطر الإعلانات المفبركة باستخدام الذكاء الاصطناعي؟