تكنولوجيا

الواقعية المفرطة وسهولة إزالة العلامة المائية .. أبرز تحديات تمييز المحتوى المولد بسورا 2

Menna Abd ElrazekMenna Abd Elrazek
date
15 أكتوبر 2025
آخر تعديل
date
4:41 ص
16 أكتوبر 2025
ترجمة:
فريق تحرير مسبار
الواقعية المفرطة وسهولة إزالة العلامة المائية .. أبرز تحديات تمييز المحتوى المولد بسورا 2
بدأت مقاطع الفيديو المولدة بسورا 2 بالانتشار على مواقع التواصل | مسبار

عقب إطلاق شركة OpenAI تطبيقها الموجّه لمستخدمي الإنترنت العاديين "سورا 2"، في شهر سبتمبر/أيلول الفائت، انتشرت على مواقع التواصل الاجتماعي مقاطع فيديو زائفة تتضمن ادعاءات كاذبة، ما زاد من خطر انتشار المعلومات المضللة بصورة ملحوظة.

يتيح تطبيق سورا إنشاء أي نوع تقريبًا من مقاطع الفيديو التي يمكن للمستخدم تخيلها، وذلك بمجرد إدخال أمر نصي بسيط. كما يسمح للمستخدمين تحميل صورهم الشخصية، ما يمكّن التطبيق من إدراج أصواتهم وصورهم الحقيقية داخل مشاهد خيالية مصطنعة.

ويُتيح التطبيق كذلك تخصيص المحتوى ليتضمن شخصيات خيالية محددة أو شعارات شركات أو حتى مشاهير متوفين، الأمر الذي يثير تساؤلات أخلاقية وقانونية متزايدة.

قال بيل بيبلز، رئيس قسم "سورا" في OpenAI، إن التطبيق وصل إلى مليون عملية تحميل خلال أقل من خمسة أيام، متجاوزًا بذلك سرعة انتشار تطبيق تشات جي بي تي، رغم أن التطبيق الجديد يعمل عبر نظام الدعوات فقط وموجه حاليًا لسوق أميركا الشمالية.

انتشار محتوى مضلل من إنتاج "سورا 2"

رصد "مسبار" عددًا من المقاطع المولدة بتطبيق سورا والتي تضمنت ادعاءات مضللة، منتشرة على مختلف مواقع التواصل الاجتماعي.

ففي التاسع من أكتوبر/تشرين الأول الجاري، ظهر على مواقع التواصل مقطع فيديو ادعى متداولوه أنه يُظهر عنصرًا في وكالة الهجرة والجمارك الأميركية (ICE)، وهو يرشّ أحد المتظاهرين برذاذ الفلفل، على الرغم من أن الفيديو كان يحمل العلامة المائية الخاصة بسورا.

المهاجرين

وفي الخامس من أكتوبر الجاري، انتشر مقطع فيديو آخر ادعى ناشروه أنه صُوّر داخل مستشفى مغربي، ويُظهر طبيبًا يجلس على مكتب متداعٍ بينما تنتظر نساء وأطفال في ممر مزدحم.

نشر الفيديو حساب يحمل اسم"Algeria Gate" على منصة إكس وأرفقه بتعليق "المستشفيات في المغرب: مجازر الموت والإهمال الكارثي".

بوابة الجزائر

على الرغم من أن كل مقطع يُنتجه تطبيق "سورا 2" يتضمن علامة مائية مرئية تشير إلى مصدره، فإن الشعار الذي يُفترض أن يساعد المشاهدين على التمييز بين المقاطع الحقيقية والمولدة بالذكاء الاصطناعي يمكن إزالته بسهولة خلال ثوان معدودة.

إزالة العلامة المائية لتطبيق سورا تثير مخاوف حول إمكانية تتبع المصدر

يكشف البحث عن عبارة "Sora watermark" على مواقع التواصل الاجتماعي، عن عشرات الروابط لمواقع ومنصات تدّعي أنها قادرة على إزالة العلامة المائية من مقاطع "سورا 2"، الأمر الذي يثير قلقًا واسعًا بشأن إمكانية تتبع مصدر هذه المقاطع.

من جهتها، أجرت منصة Media 404 اختبارًا لثلاثة من هذه المواقع، وتبيّن أن جميعها نجحت في إزالة العلامة المائية من مقاطع الفيديو خلال ثوانٍ معدودة فقط، ما يجعل المقاطع غير الموثوقة أكثر صعوبة في التمييز.

ميديا 404

مخاوف مرتبطة بالواقعية المفرطة لمشاهد تطبيق سورا 2

تشير المقاطع المتداولة إلى أن زيادة واقعية المشاهد الناتجة عن الذكاء الاصطناعي قد تُفاقم النزاعات، وتُسهم في خداع المستهلكين والتأثير على الانتخابات، بل وقد تُستخدم لتلفيق جرائم لأشخاص أبرياء.

قال هاني فريد، أستاذ علوم الحاسوب في جامعة كاليفورنيا - بيركلي، والمؤسس المشارك لشركة GetReal Security، في حديثه لصحيفة ذا نيويورك تايمز "الأمر مقلق للغاية بالنسبة للمستهلكين الذين يتعرضون يوميًا لمحتوى لا يعرف عدده ولا مصدره الحقيقي. إنني قلق على ديمقراطيتنا، وعلى اقتصادنا، وعلى مؤسساتنا كذلك".

أما البروفيسور هاو لي، أحد أبرز الخبراء في مجال توليف الفيديو، فقد أوضح في حديث لقناة CNBC أن معظم أنظمة الذكاء الاصطناعي ما تزال تدرب على بيانات لغوية مثل الكتب والنصوص المنشورة على الإنترنت، غير أن الوصول إلى "الذكاء العام" يتطلّب أن تتعلم النماذج من البيانات المرئية والسمعية، على غرار ما يفعله الطفل عندما يتعرّف على العالم من خلال النظر والسمع.

وأضاف لي قائلًا "نحن نستخدم الذكاء الاصطناعي لإنتاج محتوى جديد، ثم نُعيد استخدام هذا المحتوى لتدريب نماذج أخرى على أداء أفضل"، وأشار إلى أن مختبره بالفعل يُغذي أنظمة الذكاء الاصطناعي بمقاطع فيديو منتجة بالذكاء الاصطناعي نفسه لتحسين أدائها وجودتها.

انهيار الثقة الرقمية في عصر المشاهد الاصطناعية

صرح آرون رودريكس، رئيس قسم الثقة والسلامة في منصة Bluesky، بأن الجمهور غير مستعد لهذه الحالة من عدم القدرة على التمييز بين المحتوى الحقيقي والمزيف، محذرًا من تداعيات اجتماعية عميقة، إذ أصبح من الصعب على أغلب الناس تمييز المحتوى المولد بالذكاء الاصطناعي من الحقيقي، ما أدى إلى تراجع عام في الثقة بالمعلومات المتداولة على الإنترنت.

وأوضحت شركة Aragon Research، أن تدهور الأمن الشخصي وفقدان الثقة يمثلان التهديد الأكثر إلحاحًا للمستخدمين، مشيرة إلى أن القدرة السريعة والرخيصة على إنتاج المقاطع المزيفة (Deepfakes)، مع خوارزميات التوصية في وسائل التواصل الاجتماعي، حولت كل منصة إلى حقل ألغام من الاحتيال وسرقة الهوية.

أراغون ريسيرش

كما أن التعرّض المستمر للمحتوى الذي يصعب التمييز فيه بين الحقيقة والخيال يؤدي إلى ما يُعرف بـ "إرهاق المعلومات" (Information Fatigue)، هو ما يدفع المستخدمين إلى التشكيك في جميع أنواع الإعلام، بما في ذلك التقارير الحقيقية والرسائل الموثوقة، ما يُقوّض مفهوم الثقة الرقمية بالكامل.

رد شركة OpenAI وخططها المستقبلية

كتب سام ألتمان، الرئيس التنفيذي لشركة OpenAI، في الرابع أكتوبر الجاري، بعد أيام قليلة من إطلاق سورا "لقد تعلمنا بسرعة من طريقة استخدام الناس للتطبيق، وبدأنا نتلقى ملاحظات من المستخدمين وأصحاب الحقوق والجهات المعنية الأخرى".

واعترفت الشركة بأنها لاحظت بالفعل حالات إساءة استخدام بعد الإطلاق، ما دفعها إلى تنفيذ تعديلات فورية، مؤكدة التزامها بمنح أصحاب الحقوق تحكمًا أدق في كيفية إنشاء الشخصيات والأشكال، بما في ذلك القدرة على اختيار المشاركة أو منع الاستخدام تمامًا.

سام ألتمان

كما أعلنت OpenAI عن خطط لتنظيم عملية تحقيق الدخل من توليد المشاهد ومشاركة جزء من العائدات مع أصحاب الحقوق، الذين يسمحون باستخدام شخصياتهم أو صورهم، بهدف تحفيز الاستخدام المشروع وردع الاستغلال غير المصرح به.

اقرأ/ي أيضًا

سورا 2: مخاوف من استخدام الأداة في التضليل المعلوماتي

التذرع بالتضليل المعلوماتي.. آلية يستخدمها سياسيون للتهرب من المسؤولية

المصادر

اقرأ/ي أيضًا

الأكثر قراءة

مؤشر مسبار
سلّم قياس مستوى الصدقيّة للمواقع وترتيبها
مواقع تم ضبطها مؤخرًا
publisher
publisher
publisher
publisher
publisher
publisher
publisher
publisher
عرض المواقع
bannar