تكنولوجيا

"لم أقتله والفيديو ذكاء اصطناعي".. هل تصمد الأدلة البصرية في المحاكم بعد اليوم؟

date
٢٣ نوفمبر ٢٠٢٥
آخر تعديل
date
٢٥ نوفمبر ٢٠٢٥
"لم أقتله والفيديو ذكاء اصطناعي".. هل تصمد الأدلة البصرية في المحاكم بعد اليوم؟
مخاوف من تقويض الذكاء الاصطناعي للعدالة في بعض الحالات | مسبار

في المحاكمة العلنية التي شهدتها مدينة حلب في 18 نوفمبر/تشرين الثاني 2025، وقف أحد المتهمين بانتهاكات الساحل السوري أمام القضاة لينكر ظهوره في تسجيل مصوَّر نُسب إليه، قائلًا إن الفيديو ليس حقيقيًا، وإنه صُنع عبر الذكاء الاصطناعي. لم يحتج إلى تقديم تفصيل تقني، ولا إلى برهان مضاد، مجرد كلمة "ذكاء اصطناعي"، كانت كافية لإلقاء الشك على ما كان يُفترض أنه دليل بصري مباشر. 

متهمٌ في انتهاكات الساحل السوري أنكر فيديو يظهر فيه وادّعى تزييفه بالذكاء الاصطناعي

هذه اللحظة لم تكن مجرّد دفاعًا فرديًا. كانت إعلانًا عن التحوّل الذي ضرب مكانة الفيديو كأصلٍ للحقيقة. طوال عقود، اعتُبر المشهد المصوَّر أقوى أشكال التوثيق: الصورة لا تُجامل، والعدسة تمسك بما يفلت من الكلام. لكن دخول الذكاء الاصطناعي التوليدي قلب هذه العلاقة. فجأة لم يعد السؤال: "هل حدث هذا؟" بل أصبح: "هل هذا الفيديو أصلًا حقيقي؟".

وهنا يتّسع السؤال لأبعد من لحظة المحاكمة. فالمشهد المصوّر، الذي كان يُفترض أن يحسم الحقيقة، لم يعد قادرًا على ذلك بسهولة. الاحتمال التقني بالتزييف صار كافيًا ليضع أي تسجيل تحت علامة استفهام. من هذه الفجوة يخرج السؤال الجوهري: هل يمكن اليوم، بمعايير العلم والتقنية، التأكد يقينًا من أن فيديو ما مُولَّد بالذكاء الاصطناعي أو لا؟ وإذا بقي الجواب معلّقًا، فما الذي يعنيه ذلك لمستقبل الأدلة الرقمية والمحاكمات؟

سقوط اليقين البصري: من "دليل لا يُكذب" إلى "شك ممكن"

لنعد خطوة إلى الوراء: لماذا كان الفيديو يحتل مكانة خاصة في القضاء والإعلام؟

لقرون، كان "ما تراه العين" أقوى من أي بيان أو شهادة. الصورة تمنح وثوقًا، اللقطة تثبت، والتوثيق البصري يعطي حقًا إلى من يقول: "هذا ما فعلته".

لكن مع تطور الذكاء الاصطناعي، تغير المشهد جذريًا. لم يعد التزييف يحتاج إلى خبرة في المونتاج، بل صار بإمكان نموذج ذكاء اصطناعي متقدم أن يولّد وجهًا حيًا، صوتًا، حركة، كما لو أن الشخص كان هناك فعلًا. هذا ما كشفت دراسة حديثة بأنه "أزمة اليقين البصري"، لأن ما نراه بالفيديو لم يعد مضمونًا بالثقة التي اعتدناها.

في هذا السياق، ظهر ما يطلق عليه الباحثون والمختصون بـ"هامش الكاذب": أي أن مجرد وجود إمكانية التزييف يمنح المتهم مساحة إنكار قوية. وفقًا لدراسة بعنوان: The Liar’s Dividend: Can Politicians Claim Misinformation to Evade Accountability يسمح هذا الهامش للسياسيين المتهمين بإنكار الأخبار أو الفيديوهات الحقيقية بفعالية، ما يزيد من دعمهم بدرجة ملحوظة رغم الدليل الواضح. لا يتعلق الأمر فقط بإمكانية أن يكون الفيديو مزيفًا، بل بأن التكنولوجيا توفر ذريعة جاهزة "هذا ليس أنا، بل نتاج ذكاء اصطناعي". وهنا يبرز التحدي الأكبر للقضاء: كيف يمكن الحكم على دليل بصري عندما لا يقدم العلم يقينًا مطلقًا؟

دراسة: ادعاء التزييف يمنح السياسيين دعمًا رغم فضائحهم الحقيقية

التقنيات المُستخدمة لكشف التزييف

يواجه الباحثون والمختصون في مجال الأمن الرقمي والمصادقة على الوسائط حاليًا ثلاثة مسارات رئيسية لكشف التزييف العميق، وإثبات أصالة المحتوى المرئي والمسموع، في ظل التطور المتسارع لنماذج الذكاء الاصطناعي التوليدي الذي جعل إنتاج مقاطع مزيفة عالية الجودة متاحًا بتكلفة زهيدة وبدون مهارات تقنية متقدمة. هذه المسارات الثلاثة، رغم اختلاف منهجياتها الأساسية، تظل الأطر الوحيدة القابلة للتطبيق عمليًا حتى الآن، ولكل منها مزايا تقنية وعلمية محددة، لكنها في الوقت ذاته تواجه قيودًا جوهرية تحول دون تقديم يقين مطلق في كل الحالات، خاصة عندما تُحذف البيانات الوصفية أو تُصمم المقاطع المزيفة خصيصًا للتهرب من الكشف.

  1. البصمات الرقمية:

بعض المنصات تدمج في نماذج التوليد إشارات مضمّنة داخل الصورة أو الفيديو، تُعرف بالعلامة الرقمية (watermarks). هذه البصمات تكون أحيانًا "غير مرئية" للعين، لكنها قابلة للكشف من خلال خوارزميات خاصة. كشف تقرير الاتحاد الدولي للاتصالات (ITU) أن هذا النوع من التوثيق يعزز "أصالة الوسائط" ويسمح بتتبّع مصدرها بفعالية عالية في الظروف المثالية.

من أبرز الأمثلة تقنية FaceSigns التي طوّرها باحثون في جامعة أبو ظبي ونُشرت بين 2022-2024: النظام يضع توقيعًا شبه هشّ في منطقة الوجه بحيث إذا تم التلاعب بالوجه، يُكتشف التغيير بدقة شبه تامة، بينما يبقى التوقيع سليمًا تمامًا عند إجراء معالجات بسيطة مثل الضغط أو تعديل التباين، أو تغيير الحجم.

تقنية FaceSigns تتيح إثبات أصالة الصور وكشف التزييف بفعالية

لكن التحديات كبيرة: ما من معيار موحّد، وكل منصة قد تستخدم نظامًا مختلفًا، وهذا يضعف فعالية التوقيعات عندما تنتقل الصورة أو الفيديو عبر أنظمة متعددة. كما أن بعض الدراسات تحذّر من أن هذه البصمات يمكن إزالتها أو تزويرها إذا تطورت تقنيات الهجوم.

كما أظهر بحثٌ نُشر في مؤتمر IJCAI 2024 أن بعض العلامات المائية التقليدية قد تُضرّ أداء كاشفات التزييف العميق بدلًا من مساعدتها، لأن التوقيعات تتداخل مع الإشارات التي تعتمد عليها الخوارزميات، ما يُصعّب تمييز الصور المزيفة ويُضعف الكشف بشكل ملحوظ في كثير من الحالات.

 

  2. التحليل الخوارزمي للتشوّهات:

هنا نتحدث عن خوارزميات الذكاء الاصطناعي التي تحاول "رؤية الخطأ" في الفيديو أو الصورة: البحث عن تشوّهات دقيقة، مثل تغيرات غير طبيعية في حركة العين أو الإضاءة، تزامن الصوت مع الشفاه، أو اختلال في نبض الوجه أو تدفّق الدم داخل البشرة. بعض أنظمة الكشف الحديثة تعتمد على الإشارات الحيوية: كشفت دراسة أن طريقة تعتمد على تفاعل التغير في لون الجلد البسيط (نتيجة تدفق الدم) تكشف الفيديو المزيف بدقة شبه كاملة.

استخدام إشارات نبض الوجه يوفّر كشفًا دقيقًا لتزييف الفيديو

في المقابل، بحث في مجلة Artificial Intelligence Review يناقش صعوبة هذا النوع من الكشف: على الرغم من أن النماذج العميقة (deep learning) قادرة على استخلاص ميزات معقدة، إلا أن هذه الخوارزميات تواجه هجمات عدائية (adversarial attacks)، ونتاجاتها تفقد صلابة عند مواجهة نماذج التزييف المتطورة جدًا بنسبة فشل كبيرة في الظروف غير المثالية.

أيضًا، هناك حدود نظرية واضحة لهذا النوع من الكشف: استعراض شامل نُشر عام 2025 يوضح أن الخوارزميات العميقة، رغم قوتها، تتعثر في ثلاثة أمور رئيسية:  لا تتعامل جيدًا مع أساليب التزييف الجديدة أو المشاهد المتنوعة، تنهار تمامًا أمام الهجمات العدائية، وتضعف كثيرًا إذا كان الفيديو مضغوطًا أو رديء الجودة. لذلك، الكشف الخوارزمي لا يزال بعيدًا عن اليقين المطلق، ويحتاج إلى نماذج متعددة الوسائط واختبارات موحدة ليتحسن.

  1. التحليل الجنائي التقليدي:

هذا النوع من التحقيق لا يعتمد فقط على الذكاء الاصطناعي، بل على أدوات الجنائيين: فحص البصمة الرقمية الداخلية للملف (الميتاداتا)، التحقق من مصدره، تحليل الجهاز الذي التُقط منه الفيديو، والتأكد من تطابق الصوت مع مكان وزمان التصوير، ومطابقة السجل الصوتي أو البيئي.

في الأبحاث الحديثة، مثل دراسة نشرت في Neural Computing and Applications تم استخدام نماذج هجينة من الشبكات العصبية لتحليل الفيديو والصورة بدقة عالية جدًا. كشفت الدراسة أن هذه النماذج سجلت دقة تقارب 99٪ في بعض تجارب البيئات المختبرية المثالية.

لكن الأمر ليس بسيطًا في الواقع الميداني: في كثير من الحالات حيث تُحذف أو تُعدَّل الميتاداتا بسرعة قد تكون هذه البيانات غير كاملة أو مشوهة، ما يحدّ من قدرة المحققين الجنائيين على التحقق بشكل كامل، كما يشير تقرير FTI.

تقرير: التلاعب الرقمي المتقدم يهدد صدقية الأدلة الإلكترونية بشكل متزايد

الفجوة بين العلم والقضاء: لماذا لا يكفي "الترجيح" في المحكمة

هنا تبدأ المعضلة الحقيقية: القضاء يطلب يقينًا معقولًا، لكن الأدوات المتاحة تقدم ترجيحًا، وليس يقينًا. هذا الفرق بين ما يريده القانون وما يمكن للعلم تقديمه وهو جوهر الخطر في الحقبة الرقمية الجديدة.

في القانون الجنائي، من المعتاد أن تكون الأدلة "بَعدَ الشك المعقول". أما في العلم، فإن بعض الخوارزميات تقول إن "هذا الفيديو يبدو مزيفًا بنسبة 90%"، أو "70‑80% احتمالًا تزييف"، أو حتى "الثقة مرتفعة جدًا"، لكن ليس 100% دائمًا.

هذه الفجوة يصفها بعض الخبراء بأنها واحدة من أكبر التحديات القانونية منذ ظهور الأدلة الجينية (DNA): عندما يمكن للعلم تقديم دليل قوي جدًا، لكنه لا يمنح قطعًا نهائيًا، ما الذي يفعله النظام القضائي؟ كشفت دراسات قانونية حديثة منها بحث نشرته جامعة شيكاغو أن قبول الأدلة الاحتمالية يزيد من مخاطر الخطأ بشكل ملحوظ، بينما رفضها قد يؤدي إلى تبرئة مذنبين. وهكذا، يواجه القضاء اليوم خيارين لا ثالث لهما، وكلاهما محفوف بالمخاطر:  قبول الأدلة المحتملة (حتى لو لم تكن قاطعة) والمخاطرة بالخطأ، أو رفضها كليًا، والمخاطرة بتبرئة من تورط بطريقة يمكن إثباتها تقنيًا، لكن ليس "بما يكفي من اليقين"

الجهود البحثية لحل المعضلة: هل هناك أمل؟

رغم هذه العقبات، هناك أمل علمي كبير: الباحثون والمطورون لا يقفون مكتوفي الأيدي، وهناك اتجاهات قوية تبرز الآن. لكن رغم ذلك، كلما تقدم كاشف، يخرج نموذج توليدي جديد يكسر قواعده بعد أسابيع فقط.

توثيق المنشأ والتوثيق بالسلسلة: أنظمة مثل C2PA تسعى إلى إنشاء معيار عالمي لتوثيق المحتوى الرقمي منذ لحظة توليده. أظهرت الدراسات أن تطبيق هذا المعيار يقلل بشكل كبير من حالات التزييف غير المكتشفة عند اعتماده على نطاق واسع من خلال تسجيل السلسلة الكاملة للتعديلات.

معيار C2PA يتيح توثيق مصدر وتعديلات المحتوى الرقمي

بعض الباحثين يقترحون أيضًا استخدام تقنية البلوك تشين لتوثيق سلسلة تحرير الفيديو أو الصورة، بحيث يصبح بإمكان الجهات القانونية تتبع "من أين بدأ هذا المحتوى؟" و"من عدّله؟" بدقة لا يمكن التلاعب بها.

لكن التطبيق العملي لا يزال متعثرًا: ليس كل منصة تستخدم التوقيعات، وليس كل نموذج توليد يدعمها، وهذا يجعل التوثيق "مثاليًا في الورق، معقدًا في الواقع".

تحسين نماذج الكشف المضاد: هناك باحثون يطورون نماذج لا تكتفي بالكشف فقط، بل "تتوقع التزييف" حتى لو لم تره من قبل. كشفت دراسة حديثة أن نماذج "zero-shot"، تمكّن من كشف تزييفات جديدة تمامًا لم يُدرَّب النظام عليها سابقًا بدقة عالية في الظروف غير المألوفة.

هذا يعني أن النظام لم يعد يعتمد فقط على بيانات قديمة، بل يتعلم أن يشكّ حتى في التزييف غير المعروف، وهو تقدم كبير في سباق المزوّر والكاشف.

نهج هجيني متكامل

الأبحاث الأحدث تقترح دمج كل ما سبق: البصمات الرقمية + التوثيق + الكشف الخوارزمي + التحليل الجنائي + السياق الواقعي. على سبيل المثال، طوّرت دراسة Veritas منهجًا يدمج نماذج اللغة الكبيرة متعددة الوسائط (MLLM) مع الاستدلال المنطقي، محققة أداءً متميزًا يتفوق على النماذج التقليدية بنسب كبيرة في كشف التزييفات غير المرئية وغير المألوفة.

نموذج Veritas يقدّم كشفًا شاملًا وموثوقًا للتزييف الرقمي المعقد
نموذج Veritas يقدّم كشفًا شاملًا وموثوقًا للتزييف الرقمي المعقد

هذا النهج الهجين لا يطلب من القضاء الاعتماد على أداة واحدة فقط، بل على "منظومة أدلة" كاملة، وهو قد يكون الطريق الأقل مخاطرة والأكثر نزاهة في المستقبل القريب.

ما يعنيه هذا للقضاء والمجتمع؟

في هذا النقطة، يُطرح تأمل أوسع: ليس فقط في حالة محاكمة معينة، بل في ما إذا كان النظام القضائي العالمي مستعدًا للمعضلة التي يفرضها الذكاء الاصطناعي: 

كيف يمكن للقضاء أن يتعامل مع "دليل مرئي" في عالم قد يكون مختلَقًا بالكامل؟

هل يجب على المحاكم أن تطلب شهادات خبراء ذكاء اصطناعي في كل قضية تتعلق بفيديو؟

هل من الضروري أن يكون هناك معيار دولي موحّد لتوثيق الفيديوهات والصور من لحظة "الولادة الرقمية"؟

كيف نضمن أن المنصات التي تنشر الفيديوهات (إعلامية، تواصل اجتماعي، صحافة) تلتزم بمعايير الأمان والتوثيق؟

هذه الأسئلة ليست فنية فقط، بل أخلاقية وقانونية واجتماعية.

وبطبيعة الحال، إذا كنا نريد أن نضمن عدالة حقيقية في "عصر الذكاء الاصطناعي"، فإن الحل لا يكمن في أداة واحدة، بل في منظومة تشبيك للقانون والعلم والمنصات والمجتمع. محكمة لا تُقرّ تقنية التحقق فقط، بل تطلبها كجزء من منظومة كاملة. وهذا ليس حلمًا خياليًا بل اتجاه بحثي نشط اليوم، ولكنه يحتاج التزامًا دوليًا، ومعايير موحّدة، ورؤية قانونية جديدة.

اقرأ/ي أيضًا

استغلال صورة مولّدة بالذكاء الاصطناعي لإعادة تدوير رواية "باليوود" ونفي جريمة قتل محمد الدرة

المعرفة في زمن الذكاء الاصطناعي.. من يحاسبه حين يضلل الرأي العام؟

المصادر

كلمات مفتاحية

اقرأ/ي أيضًا

الأكثر قراءة

مؤشر مسبار
سلّم قياس مستوى الصدقيّة للمواقع وترتيبها
مواقع تم ضبطها مؤخرًا
publisher
publisher
publisher
publisher
publisher
publisher
publisher
publisher
عرض المواقع
bannar