تكنولوجيا

سورا 2: مخاوف من استخدام الأداة في التضليل المعلوماتي

محمود سمير حسنينمحمود سمير حسنين
date
12 أكتوبر 2025
آخر تعديل
date
6:31 ص
21 أكتوبر 2025
سورا 2: مخاوف من استخدام الأداة في التضليل المعلوماتي
مخاوف بعد إطلاق شركة أوبن إي آي لأداة سورا 2 | مسبار

أطلقت شركة أوبن إيه آي الإصدار الثاني من تطبيقها المرئي "سورا"، يوم الثاني من سبتمبر/أيلول الفائت، وعاد الجدل حول مستقبل الحقيقة في عصر الذكاء الاصطناعي إلى الواجهة. فالتطبيق الذي يحوّل الأوامر النصية البسيطة إلى مقاطع فيديو واقعية بالكامل، لم يُقدَّم بوصفه مجرد إنجاز تقني، بل تحولًا سريعًا إلى أحد أكثر أدوات إنتاج التضليل البصري إثارة للقلق، حسب خبراء.

مخاوف من استخدام أداة سورا 2 للتضليل المعلوماتي

لدى سورا 2 قدرة عالية على توليد مشاهد تتضمن حركة كاميرا واقعية، وتعبيرات وجوه دقيقة، وتفاعلًا طبيعيًا مع الإضاءة والظلال، ما يجعل المقاطع المولدة عنه قريبة جدًا من التصوير الحقيقي. إلا أن هذه الدقة نفسها تمثل مصدر الخطر الأكبر، إذ لم يعد من الممكن للمشاهد العادي التفريق بسهولة بين ما هو حقيقي وما هو مولَّد بالكامل بواسطة الذكاء الاصطناعي.

الواقعية المفرطة والتزييف العميق المقنع

يتيح سورا 2 للمستخدم كتابة أوصاف بسيطة مثل "احتجاج في ساحة عامة" أو "انفجار في محطة قطارات"، ليحوّلها النظام خلال دقائق إلى مشهد بصري واقعي بصوت وصورة، يُظهر بشرًا يتحركون ويتفاعلون في بيئة طبيعية تمامًا.

ففي الأيام الأولى بعد إطلاق التحديث، تداول مستخدمون على مواقع التواصل مقاطع تُظهر انفجارات في نيويورك وأخرى لحرائق في محطات قطارات أوروبية، اتضح لاحقًا أنها مُولدة بالكامل عبر سورا. ورغم تفنيدها، فإنها انتشرت سريعًا وأُعيد نشرها مئات المرات.

تقول جوان دونوفان، أستاذة مساعدة في جامعة بوسطن ومتخصّصة في دراسة التضليل والتلاعب الإعلامي، إن تطبيق سورا 2 "ليس له أي وفاء للتاريخ، ولا علاقة بالحقيقة"، في إشارة إلى قدرة المستخدمين على إعادة إنتاج مشاهد أو أحداث لم تقع مطلقًا بطريقة تجعلها قابلة للتداول كمحتوى إخباري واقعي.

وتضيف دونوفان، في حديثها لصحيفة ذا غارديان، أن ما يثير القلق ليس فقط إمكان إنشاء مقاطع مزيفة، بل أيضًا "سهولة نشرها في فضاءات التواصل الاجتماعي دون وسم أو سياق"، ما يجعلها "أداة مثالية لزرع الشك في كل ما يُرى".

استغلال الشخصيات العامة والتاريخية

أحد أبرز أوجه الجدل المحيطة بسورا 2 يتمثل في إمكانية استغلال وجوه وأصوات أشخاص حقيقيين، سواء كانوا شخصيات سياسية أو فنية أو حتى متوفين.

فقد ظهرت خلال الأسابيع الأولى لاختبار التطبيق مقاطع تُظهر شخصيات عامة في مواقف لم تحدث، مثل تسجيلات مصورة لشخصيات سياسية تتحدث بعبارات مثيرة أو تتبنى مواقف لم تصدر عنها قط. كما نُشرت مقاطع أخرى تُعيد تمثيل مشاهد تاريخية بحضور شخصيات واقعية، ما يجعلها تبدو كتوثيق لأحداث لم تقع.

مثل هذه الاستخدامات تثير أسئلة قانونية وأخلاقية معقدة، مثل من يملك حقوق النشر عندما يكون المحتوى مولدًا بسهولة رقميًا؟ وكيف يمكن حماية ذكرى الشخصيات التاريخية من التلاعب أو التزوير؟

وقد اضطرت أوبن إيه آي لاحقًا إلى تعديل سياستها الخاصة بحقوق النشر، بعد أن واجهت انتقادات حادة بسبب سماحها المبدئي باستخدام شخصيات محمية بحقوق الملكية الفكرية ما لم يطلب أصحابها خلاف ذلك.

وفي السياق نفسه، قال ديفيد كارف، أستاذ الإعلام والسياسة في جامعة جورج واشنطن، إن المقاطع التي تُنشأ بواسطة سورا 2 "بدأت تُستخدم لترويج حملات احتيال رقمي واستغلال شخصيات مشهورة بطرق غير قانونية". وأضاف أن "الضوابط التي تتحدث عنها الشركة ليست حقيقية إذا كان الناس قادرين على إنتاج مقاطع تروّج لعمليات احتيال باستخدام وجوه شخصيات محفوظة الحقوق".

ولا يقتصر القلق على الجانب التقني، بل يمتد إلى البعد الاجتماعي والسياسي. فالمقاطع المزيفة التي تحاكي الاحتجاجات أو الأزمات الأمنية يمكن أن تُستخدم بسهولة لتأجيج الخوف أو العداء أو لتبرير قرارات سياسية.

من جانبه، وصف هاني فريد، أستاذ علوم الحاسوب في جامعة كاليفورنيا في بيركلي، في تصريح له مع صحيفة ذا ستار، أن التطبيق الجديد "يجعل التضليل أمرًا سهلًا للغاية وواقعيًا للغاية".

وأضاف فريد، بأنه يشعر "بالقلق على ديمقراطيتنا، وعلى اقتصادنا، وعلى مؤسساتنا. فحين يستطيع أي شخص توليد فيديو يبدو حقيقيًا بالكامل في دقائق، يمكن تحويل الأكاذيب إلى أدوات سياسية فعالة".

أما كريستيان جاي هاموند، أستاذ في مركز أبحاث السلامة والتقدّم في الذكاء الاصطناعي في جامعة نورث وسترن الأميركية، فقال إن "الخطر لا يكمن فقط في المحتوى ذاته، بل في الطريقة التي توزّعه بها الخوارزميات". موضحًا أن "الواقع الآن أننا نحصل على فيديوهات مذهلة تعزز معتقداتي، حتى لو كانت كاذبة، في حين أنك لن تراها، لأن النظام لم يوجّهها إليك أساسًا".

ويشير هذا إلى أن التضليل عبر سورا 2 قد يتخذ شكلًا أكثر تعقيدًا، حيث يُقدَّم المحتوى المزيف بأسلوب مخصص لكل مستخدم، ما يعمّق الفجوات المعرفية ويصعّب مهمة التفنيد.

ضعف الشفافية التقنية

تقول شركة أوبن إيه آي إنها دمجت في سورا 2 أدوات للوسم الرقمي تهدف إلى تمييز المحتوى المُنشأ بالذكاء الاصطناعي، مثل العلامة المائية الخفية وبيانات المصدر الرقمية. لكن هذه الوسوم غير مرئية للمستخدم العادي، ولم تُختبر علنًا بعد، ما يجعل فاعليتها غير مؤكدة.

إضافة إلى ذلك، يمكن من الناحية التقنية تعديل المقطع أو إعادة ترميزه لإزالة العلامة المائية، ما يُضعف قدرتها على حماية المستخدمين من التضليل المتعمد.

كما أن الشركة لم تقدّم حتى الآن تفاصيل كافية حول طريقة إدارة هذه البيانات أو كيفية وصول الجهات الإعلامية إلى أدوات التحقق منها، وهو ما يُبقي مسألة الشفافية مفتوحة أمام الشك.

من جهته، قال فارون شِتّي، مدير الشراكات الإعلامية في أوبن إيه آي، لصحيفة ذا غارديان إن الشركة "تعمل على تطوير آليات أكثر دقة لأصحاب الحقوق، وستتيح لهم إمكانية إزالة أو حجب أي محتوى يولّد شخصياتهم أو أعمالهم دون إذن".

قالت أوبن إي آي إنها تعمل على حل معضلة حقوق النشر الخاصة بأداة سورا 2

لكن مراقبين قانونيين يرون أن هذه الخطوات لا تكفي. إذ إن غياب إطار تنظيمي واضح يجعل المسؤولية الأخلاقية والقانونية ضبابية في حال انتشار فيديو مضلل أو تشهيري.

ويشير باحثو القانون الرقمي إلى أن التشريعات القائمة في الولايات المتحدة والاتحاد الأوروبي "ما تزال عاجزة عن مواكبة وتيرة التطور التقني"، ما يسمح بتوسّع مساحة الإفلات من المحاسبة في مجال التضليل البصري.

اقرأ/ي أيضًا

كيف يمكن لأداة سورا لتوليد مقاطع الفيديو بالذكاء الاصطناعي المساهمة في نشر المعلومات المضللة؟

دور الذكاء الاصطناعي في مفاقمة الاضطرابات النفسية

المصادر

اقرأ/ي أيضًا

الأكثر قراءة

مؤشر مسبار
سلّم قياس مستوى الصدقيّة للمواقع وترتيبها
مواقع تم ضبطها مؤخرًا
publisher
publisher
publisher
publisher
publisher
publisher
publisher
publisher
عرض المواقع
bannar