تكنولوجيا

ما التحديات التي يفرضها استخدام Veo 3 على عمل مدققي المعلومات حول العالم؟

فريق تحرير مسبارفريق تحرير مسبار
date
11 يونيو 2025
آخر تعديل
date
5:09 ص
15 يونيو 2025
ما التحديات التي يفرضها استخدام Veo 3 على عمل مدققي المعلومات حول العالم؟
أداة Veo 3 تضاعف قدرة الذكاء الاصطناعي على إنتاج محتوى مضلل | مسبار

في أيار/مايو الفائت، أعلنت شركة غوغل عن إطلاق الإصدار الجديد من أداة توليد مقاطع بالذكاء الاصطناعي، Veo 3 بدقة 4K. الأداة الجديدة اعتُبرت طفرة في مجال إنتاج الفيديو، إذ تتيح توليد محتوى بصري بواقعية غير مسبوقة، ما يمنحها ميزة تنافسية واضحة وسط التسارع المتزايد في تقنيات الذكاء الاصطناعي المرئي.

 في المقابل، أثار الإعلان مخاوف متجددة لدى مدققي الحقائق، إذ تتزايد أدوات توليد الصور ومقاطع الفيديو عبر الذكاء الاصطناعي، مقابل محدودية أدوات الكشف عنها. فمعظم أدوات التحقق المتاحة حاليًا لا توفر نتائج حاسمة يمكن الاعتماد عليها بشكل منفرد، ما يعيد التأكيد على أهمية دور التقييم البشري والمراجعة الدقيقة في عمليات التحقق.

غوغل تعلن عن إطلاق إصدار النسخة الجديدة من أداة Veo 3
غوغل تعلن عن إطلاق إصدار النسخة الجديدة من أداة Veo 3 

مميزات Veo 3  التقنية

 بحسب إعلان شركة غوغل، يتميز الإصدار الجديد من أداة Veo بقدرته على تحويل النصوص إلى مشاهد عالية الجودة، تضاهي الأعمال السينمائية من حيث الواقعية والإخراج البصري. وتتيح الأداة توليد محتوى يتضمن عناصر صوتية متقدمة، مثل الحوارات المسجلة والمؤثرات الصوتية البيئية (كزقزقة الطيور أو ضجيج حركة المرور)، ما يعزز من واقعية المشاهد المنتجة.

 كما تتيح للمستخدم أدوات تحكم متقدمة بالكاميرا الافتراضية عبر الأوامر النصية، وفي الوقت نفسه تدعم تعدد اللغات، ما يسهم في تقليل الوقت والتكاليف المرتبطة بالإنتاج.

إطلاق Veo 3 مع مزايا للمستخدمين

وأشارت الشركة إلى أنّ منتجها يقدّم تحسينات كبيرة في فهم الفيزياء، ما يسمح بإنتاج مقاطع فيديو ذات تفاصيل بصرية دقيقة وحركات طبيعية، لافتة إلى أنّه يتكامل مع أداة غوغل الجديدة للإنتاج السينمائي بالذكاء الاصطناعي "Flow"، والتي تتيح للمستخدمين إنشاء مشاهد سينمائية مع تحكمات متقدمة، كما يتوفر عبر تطبيق Gemini. 

ورغم دمج Veo 3 لتقنية العلامة المائية الرقمية (SynthID) لاكتشاف الفيديوهات المولّدة، إلا أن فاعلية هذه التقنية ما تزال محدودة، إذ يمكن التحايل عليها بسهولة من خلال اقتصاص أجزاء من الفيديو. كما أن الأداة لا تزال في مرحلة تجريبية، وهي متاحة حاليًا لمجموعة محدودة من المختبرين الأوائل، مع وجود قائمة انتظار للراغبين في الحصول على أولوية الوصول.

تصاعد المخاوف من التضليل مع Veo 3

أشارت مجلة تايم وعدد من هيئات مراقبة التكنولوجيا في تحليلات حديثة، إلى أن أداة الفيديو المعتمدة على الذكاء الاصطناعي، التي أطلقتها غوغل مؤخرًا، قد تستخدم في إنشاء مقاطع واقعية تتضمن معلومات مضللة أو محتوى مثيرًا للجدل، خصوصًا في سياق الأحداث الإخبارية.

تحذيرات من استخدام أداة غوغل لنشر محتوى مضلل
تحذيرات من استخدام أداة غوغل لنشر محتوى مضلل

جاء تحليل مجلة تايم بعد تجربة إنتاج أربعة مقاطع عبر أداة غوغل الجديدة، أظهرت قدرة الذكاء الاصطناعي على توليد مشاهد واقعية قد تحمل مضامين مضللة أو حساسة. تضمنت المقاطع مشهدًا لحشد باكستاني يضرم النار في معبد هندوسي، وآخر لعلماء صينيين يتعاملون مع خفاش داخل مختبر بيولوجي، إضافة إلى فيديو لعامل انتخابي يمزق أوراق الاقتراع، ومقطع يصور فلسطينيين يستقبلون المساعدات الأميركية بامتنان في غزة.

فيديو مولد باستخدام veo 3

أحد مقاطع الفيديو التي نشرتها مجلة تايم يكشف مخاطر التزييف

يشير التحليل إلى أنّه، رغم احتواء كل من هذه الفيديوهات على بعض الأخطاء الملحوظة، فإن عددًا من الخبراء صرحوا للمجلة بأنه في حال نُشرت هذه الفيديوهات على وسائل التواصل الاجتماعي مرفقة بتعليقات مضللة، خصوصًا في سياق أحداث إخبارية عاجلة، فقد تسهم في تأجيج الاضطرابات الاجتماعية أو التحريض على العنف.

وتقول المجلة إنها عرضت مؤخرًا نتائج تحليلها على شركة غوغل، التي ردّت بأنها ستبدأ في إضافة علامة مائية مرئية إلى الفيديوهات المُنتجة عبر Veo 3.

عيوب قد تقود إلى اكتشاف مقاطع الفيديو المولّدة عبر Veo 3 

 أجرى الصحفي الاستقصائي الهولندي وخبير الإعلام الرقمي والبحث عبر الإنترنت، هينك فان إيس، تجربة على أداة Veo 3 خلال فترة استراحة الغداء في أحد أيام العمل. ويقول فان إيس إن التجربة استغرقت 28 دقيقة و12 ثانية، وكلفته ثمانية دولارات، لكن الضرر الذي ألحقته بثقته لا يُقدر بثمن.

التجربة التي أجراها الصحفي تناولت فضيحة سياسية تتعلق بعمدة مدينة خيالي، يقترح تحويل المدرسة الثانوية الوحيدة في بلدته إلى منشأة لتصنيع اليخوت. وتضمّن الفيديو مشاهد لمذيعي أخبار، وحديثًا مصورًا للعمدة، واحتجاجات في الشوارع، إضافة إلى بث مباشر يُظهر ناشطين يرفضون القرار.

يرى فان إيس أن التجربة كانت سهلة بشكل فظيع لكنّها احتوت على أربعة عيوب قد تكون مدخلًا لاكتشاف الفيديوهات المولّدة عبر هذه التقنية، أوّلها أن الفيديوهات النهائية كانت مصقولة للغاية بما فيها فيديو البث المباشر من الشارع، وبدت الكاميرات ثابتة جدًا. ومن العيوب التي لاحظها أيضًا أن اللافتات التي حملها المحتجّون احتوت عبارات مفكّكة وغير مترابطة. 

أمّا شخصيات الفيديو الذي أنشأه الصحفي فبدت حركاتها وانفعالاتها مستمرة على ذات النسق، فالذكاء الاصطناعي بحسب فان إيس لا يستطيع تذكّر كيف كان شكل الشخص في المشاهد السابقة. وأخيرًا، أشار إلى أن الترجمة المصاحبة للفيديوهات كانت تلقائية وعشوائية، بينما احتوت التسميات التوضيحية على عبارات غير مفهومة.

مشاهد من تجربة الصحفي فان إيس وأحد التحديات التي واجهها كان الحفاظ على استمرارية الشخصية
مشاهد من تجربة الصحفي فان إيس وأحد التحديات التي واجهها كان الحفاظ على استمرارية الشخصية

ختامًا، يرى فان إيس أن الحل لا يكمن في حظر هذه التقنية، بل في إعادة النظر جذريًا في طرق التحقق من المعلومات، وتثقيف الجمهور بشأن إمكانيات الذكاء الاصطناعي.

ويضيف "نحن بحاجة إلى مدققي معلومات يعملون بوتيرة أسرع من انتشار الأخبار المضللة التي يُنتجها الذكاء الاصطناعي. نحن بحاجة إلى تثقيف إعلامي لا يقتصر على "التحقق من المصادر"، بل يقوم على "افتراض أن كل شيء قد يكون زائفًا حتى يثبت العكس".

المثالية الزائدة تثير الشك

يقول خبير الذكاء الاصطناعي التوليدي، د. فادي عمروش، في حديثه لمسبار، إنه رغم التقدم الكبير في تقنيات الذكاء الاصطناعي وقدرته العالية على مطابقة حركة الشفاه، لا تزال هناك مؤشرات يمكن أن تساعد المستخدم العادي على كشف الفيديوهات المُزيّفة.

منها، الكمالية الزائدة، ففي كثير من الأحيان، تكون جودة الفيديو المُولّد بالذكاء الاصطناعي مثالية بشكل مفرط، لا شوائب، ولا عيوب تصوير طبيعية، ما يجعله يبدو مبالغًا فيه، وهذه المثالية الزائدة ينبغي أن تثير الشك. 

ويشير إلى أنه على الصحفي أن يكون في كامل انتباهه عند محاولة التحقق من صحة أي فيديو، فقد يحتوي على أخطاء لحظية لا تتجاوز أجزاء من الثانية، وهي عبارة عن لحظات قصيرة من عدم الاتساق، أو انعكاس مرآة غريب، إضافة إلى ظلال غير منطقية، أو تفاصيل صغيرة تتشوّه فجأة. هذه الأخطاء تظهر عادة في أجزاء الثانية وتحتاج إلى عين فاحصة. 

 ويستعين الذكاء الاصطناعي بمؤثرات بصرية غير طبيعية، بحسب خبير الذكاء الاصطناعي التوليدي، مثل التوهّج الاصطناعي، أو الضبابية المُبالغ بها، أو الإضاءة غير الطبيعية. ويضيف أن بعض هذه الفيديوهات تعتمد على مقاطع أصلية موجودة مسبقًا لإنتاج محتوى جديد، ما قد يُشعر المشاهد أنه شاهد المشهد سابقًا، أو يثير لديه شعورًا بالتشابه المريب مع لقطات منتشرة.

هل يعزّز Veo 3 المخاوف من التضليل العكسي؟

يرى الدكتور فادي عمروش أن هناك سيناريو آخر أكثر خطورة يُعرف بـ"التضليل العكسي"، حيث يُنشر مقطع فيديو حقيقي، ثم يبدؤون بالتشكيك فيه علنًا، مدّعين أنّه مفبرك باستخدام الذكاء الاصطناعي. حيث يستغل هؤلاء ثغرات مثل وجود مونتاج بسيط، أو جودة تصوير عالية جدًا، أو معالجات لونية معيّنة، لتقديم حجج توحي بأنّ الفيديو غير حقيقي.

يهدف هذا النوع من التضليل، بحسب عمروش، إلى إرباك الجمهور، وزعزعة الثقة في المصادر الأصلية، ونشر الشك العام تجاه المحتوى المرئي عمومًا، سواء أكان حقيقيًا أم زائفًا. ويعد هذا النوع من أخطر أشكال التضليل، لأنه لا يقوم على فبركة المحتوى نفسه، بل على فبركة السردية المحيطة به.

 ويحذّر عمروش من أسلوب آخر أكثر تعقيدًا، يتمثل في دمج مقاطع حقيقية بأخرى مولدة بالذكاء الاصطناعي في فيديو واحد، ما قد يدفع الجمهور للاعتقاد بأن المقاطع الحقيقية مزيفة، أو العكس، وهو ما يضاعف من صعوبة التحقق، ويضع تحدّيًا كبيرًا أمام العاملين في مجال تدقيق المعلومات.

 الذي أحرزته أداة Veo 3 في مجال توليد الفيديوهات بالذكاء الاصطناعي، إلا أن اكتشاف المحتوى الزائف لا يزال ممكنًا من خلال تتبع بعض العلامات والثغرات غير الطبيعية. لذا، من المهم أن تواصل المؤسسات الإعلامية والناشطون نشر نتائج تجاربهم وملاحظاتهم حول هذه الثغرات بشكل مستمر، ما من شأنه مساعدة الجمهور على التمييز، والضغط على الشركات المطورة لتدارك هذه الثغرات مستقبلًا.

اقرأ/ي أيضًا

كيف يمكن لأداة سورا لتوليد مقاطع الفيديو بالذكاء الاصطناعي المساهمة في نشر المعلومات المضللة؟

أداة DeepFake-o-meter: ما مدى فعاليتها في كشف المشاهد المولدة بالذكاء الاصطناعي؟

المصادر

اقرأ/ي أيضًا

الأكثر قراءة

مؤشر مسبار
سلّم قياس مستوى الصدقيّة للمواقع وترتيبها
مواقع تم ضبطها مؤخرًا
publisher
publisher
publisher
publisher
publisher
publisher
publisher
publisher
عرض المواقع
bannar