بين التضليل والتضامن: كيف استُخدمت المشاهد المولّدة بالذكاء الاصطناعي خلال الحرب السودانية؟
شهدت الحرب السودانية منذ إبريل/نيسان 2023، دخولًا فعليًا لتقنيات التزييف العميق والفيديوهات المولّدة بالذكاء الاصطناعي ضمن ساحات الصراع الإعلامي، إذ تحولت منصات التواصل الاجتماعي إلى فضاء لإنتاج محتوى زائف يهدف إلى تضليل الجمهور، وتوجيه التعاطف أو التشكيك بحسب مصالح الأطراف المتنازعة.
في عصر الذكاء الاصطناعي بات بإمكان أي شخص توليد مشاهد واقعية بالكامل من العدم، وما ينطبق على ذلك يظهر في بعض المشاهد التي استغلت معاناة الشعب السوداني لأغراض لا إنسانية وربحية.
إذ يسعى بعض صانعي هذه المقاطع إلى زيادة أعداد المتابعين والإعجابات والتعليقات، فتتحول هذه الإنتاجات إلى أدوات تضليل تخدع مستخدمي منصات التواصل، الذين يعيدون نشرها ويعرضونها على أنها توثيق حقيقي لمعاناة المدنيين، بينما ليست تسجيلات حقيقية لما يجري على الأرض.
في المقابل، ثمة مستخدمون أنشؤوا ونشروا محتوى مولّدًا أو معدلًا بدافع التضامن أو لإظهار حجم الجرائم والانتهاكات. لكن الخطر يكمن في أن الخلط بين النوايا الحسنة والمقصد الربحي أو التلاعبي، يؤدي إلى إضعاف صدقية الشهادات الحقيقية.
في هذا المقال، يرصد "مسبار" عددًا من الحسابات التي استغلت الأحداث الأخيرة في السودان، وروّجت لمشاهد مولّدة بالذكاء الاصطناعي، حصدت آلاف الإعجابات وإعادات النشر والتعليقات المتضامنة مع محتوى غير حقيقي. كما يتناول المقال أبرز الأدوات المستخدمة في إنتاج هذه المقاطع، ويُوضّح كيف يمكن اكتشافها.
حسابات تروّج مشاهد زائفة وتزعم أنها من السودان
رصد مسبار عددًا من الحسابات على منصة "تيك توك" تنشر مقاطع متكررة تُظهر مشاهد حرب أو معاناة إنسانية، جُسّدت فيها شخصيات مختلفة من نساء وأطفال وغيرهم في أوضاع مزرية. يظهر بعضهم في حالة فرار من الدمار، فيما يبكي آخرون بحرقة مناشدين المساعدة.

اللافت أن بعض هذه المقاطع تضمّن دعوات مباشرة من ناشريها إلى المتابعين للضغط على زر الإعجاب وإعادة النشر، وهي أساليب معتادة يستخدمها صُنّاع المحتوى لزيادة الانتشار.
وأظهر تحليل الإطارات البصرية وجودة الأصوات والملامح في هذه المقاطع أنها مُنتجة بالكامل باستخدام أدوات توليد الفيديوهات بالذكاء الاصطناعي، إذ اعتمد ناشروها على خلفيات متشابهة في أكثر من مقطع، تتمثل في صحراء قاحلة ومبانٍ بلونٍ أصفر رملي، وهي عناصر متكررة تُشير إلى اعتماد قالب توليدي واحد.

كما أُرفقت هذه المقاطع بوسوم شائعة مرتبطة بالحرب السودانية بهدف جذب التفاعل وزيادة الانتشار. وقد حصدت بعض المنشورات آلاف المشاهدات والتعليقات المتعاطفة، ما أدى إلى تضليل المستخدمين الذين أعاد كثير منهم نشرها على منصات أخرى، الأمر الذي سرّع من تداولها وانتشارها، رغم إشارة بعض الحسابات إلى أن محتواها مولّد بالذكاء الاصطناعي.

تُظهر دراسات عدة أن التزييف العميق والفيديوهات المولّدة بواسطة الذكاء الاصطناعي تؤثر بشكل مباشر على الواقع في السودان، ليس فقط من حيث تحريف المعلومة بل أيضًا في اتخاذ القرارات الحياتية والتدخلات الإنسانية.
كما تؤكد الدراسات أن الانخراط المستمر في الحملات الرقمية للتضليل عبر محتوى مولّد وخطاب يُغذّي الكراهية، يعمّق الانقسامات الاجتماعية ويشجّع العنف بين الجماعات السودانية.
سورا: أداة لتحويل النصوص إلى مشاهد واقعية عالية الدقة بعلامة مائية
رصد مسبار وجود علامة مائية على بعض المقاطع المتداولة تشير إلى هوية الأدوات المستخدمة في إنتاجها، وهي من المؤشرات التي يمكن للمستخدم الاعتماد عليها لتحديد ما إذا كانت الفيديوهات مولّدة بالذكاء الاصطناعي أم لا.

وتحمل العلامة المائية اسم "Sora"، وبالبحث عنها تبين أنها تعود إلى أداة تابعة لشركة OpenAI، أُطلقت لأول مرة في فبراير/شباط الفائت. وتُعد "Sora" نموذجًا متقدمًا من الذكاء الاصطناعي التوليدي، قادرًا على تحويل النصوص المكتوبة إلى مقاطع فيديو واقعية تحاكي المشاهد الحقيقية.
ووفق الموقع الرسمي للأداة، تصل دقة الفيديوهات المنتجة بواسطة "Sora" إلى 1080p، مع مدة قصوى تصل إلى 20 ثانية. كما تتيح الأداة تعديل المقاطع أو دمجها، وتحريك الصور الثابتة، وملء الإطارات المفقودة في الفيديوهات.
ويعتمد نموذج "Sora" على تقنيات متقدمة تشمل نماذج الانتشار، ما يمكّنه من اتباع تعليمات المستخدم النصية بدقة وإنشاء محتوى واقعي متحرك يحاكي المشاهد الحقيقة.

العيوب الرقمية للمشاهد الزائفة
تشير الدراسات الحديثة إلى أن المشاهد التي يُنتجها الذكاء الاصطناعي غالبًا ما تحمل بصمات رقمية دقيقة يمكن الاعتماد عليها لاكتشافها، رغم مظهرها الواقعي للغاية.
ووفق دراسة نُشرت في إبريل/نيسان الفائت، بعنوان "A Perspective on Quality Evaluation for AI‑Generated Videos"، هناك عدة مؤشرات يمكن ملاحظتها عند تحليل المشهد تساعد على تحديد ما إذا كان الفيديو مولّدًا اصطناعيًا، أبرزها: تشوهات دقيقة في ملامح الوجه والحركة، مثل وميض غير طبيعي للعيون أو حركة الشفاه غير المتزامنة مع الصوت، اختلالات في الإضاءة والظلال، وأخطاء في اليدين أو الأجسام الأخرى، كأصابع مشوهة أو حركات غير طبيعية للعناصر المحيطة.
إضافة إلى الملاحظات البصرية، أشارت الدراسة إلى إمكانية استخدام أدوات تحليل رقمية متقدمة للكشف عن الفيديوهات المولّدة، مثل خوارزميات فحص أنماط البيكسل غير الطبيعية، وأدوات متخصصة مثل DIVID وDeepware، التي توفر مستويات عالية من الدقة في التمييز بين المحتوى الواقعي والمحتوى المُنتَج بواسطة الذكاء الاصطناعي.
وكان مسبار قد تناول في مقال أبرز العيوب في المشاهد المولدة بالذكاء الاصطناعي، مشيرًا إلى العيوب البصرية مثل تغير الإضاءة غير المنطقي، تكرار الخلفيات والعناصر البشرية، والتصوير السينمائي المبالغ فيه، إضافةً إلى العيوب الصوتية من وضوح مفرط وأخطاء لغوية.
كما بيّن أن نمط انتشار هذه المشاهد السريع والمبالغ فيه على حسابات مجهولة يكشف زيفها ومولدها رقميًا.
دراسة: وسم المحتوى المولّد بالذكاء الاصطناعي لا يقلل من تأثيره الإقناعي
كشفت دراسة حديثة نُشرت على "ArXiv" العام الجاري، بعنوان "Labeling Messages as AI‑Generated Does Not Reduce Their Persuasive Effects" أن وسم الرسائل أو الصور على أنها مولّدة بالذكاء الاصطناعي لا يقلل من قدرتها الإقناعية على المتلقين.
فقد أجرى الباحثون تجربة شملت أكثر من 1600 مشارك، ووجدوا أن المحتوى المولّد استطاع التأثير في آراء المتلقين بمعدل نحو 9.74 نقطة مئوية بغض النظر عن وجود الوسم التحذيري، ما يشير إلى أن الواقعية البصرية والمحتوى الإقناعي يمكن أن تتجاوز التحذيرات المباشرة.
وتوضح النتائج أن تأثير المحتوى المصنوع بالذكاء الاصطناعي لا يقتصر على ما يراه المتلقي فحسب، بل يمتد ليؤثر على قراراته وسلوكه الرقمي وحتى مشاركته للمحتوى. وعلى هذا الأساس، تشدد الدراسة على أهمية تعزيز الوعي الرقمي لدى المستخدمين وتطبيق أدوات التحقق من صحة المحتوى كخط دفاع أساسي للحد من التضليل.
ويتطلب مواجهة هذا النوع من التضليل تعزيز مهارات التمييز الرقمي لدى المستخدمين، وتطوير أدوات متقدمة لكشف المحتوى المولَّد، إلى جانب تشديد المنصات الرقمية لإجراءات التحقق قبل انتشار المقاطع المضللة.
ويبقى الوعي الفردي للمستخدم هو خط الدفاع الأول أمام مقاطع تبدو حقيقية لكنها مصنوعة بالكامل بالذكاء الاصطناعي، إذ يجب أن يكون قادرًا على ملاحظة علامات التشوه في ملامح الأشخاص وسلوكياتهم.
كما يتحمل الصحفيون ووسائل الإعلام مسؤولية كبيرة في التعامل مع المحتوى والتحقق من مصداقيته قبل إعادة نشره أو تداوله، لضمان الحد من التضليل وتعزيز موثوقية المعلومات المتاحة للجمهور.
اقرأ/ي أيضًا
أثر التضليل المعلوماتي والتزييف العميق على حياة السودانيين أثناء الحرب

























