تكنولوجيا

جروك: بين التحقق من المعلومات ونشر التضليل على إكس

لانا عثمانلانا عثمان
date
1 مايو 2025
آخر تعديل
date
7:04 م
2 مايو 2025
جروك: بين التحقق من المعلومات ونشر التضليل على إكس
يسهم جروك أحيانًا في تعزيز المعلومات المضللة بدلًا من كشفها | مسبار

باتت أدوات الذكاء الاصطناعي تلعب دورًا متزايد الأهمية في محاولات فرز الحقيقة من الزيف. ومع تزايد التحديات المتعلقة بالتضليل الإعلامي، والتلاعب بالمحتوى البصري، والانتشار السريع للشائعات عبر المنصات الرقمية، أصبح البحث عن أدوات فعالة للتحقق من المعلومات حاجة ملحّة لدى المستخدمين والصحافيين على حد سواء.

في هذا السياق، برزت أداة "جروك" (Grok) كأحد أبرز منتجات شركة xAI التابعة لإيلون ماسك، والتي دُمجت مباشرة ضمن منصة إكس. ومع أن جروك لم تسوّق في البداية كأداة تحقق من المعلومات، فإن الاستخدام المتزايد لها في هذه الوظيفة من مستخدمي المنصة أصبح ملحوظًا. إذ باتت الأداة تستخدم بشكل متكرر في التفاعل مع المحتوى البصري والإخباري، حيث يلجأ إليها المستخدمون للحصول على إجابات سريعة حول مصداقية الصور ومقاطع الفيديو والأخبار المتداولة.

إلا أن الاعتماد المتزايد على جروك يثير تساؤلات جوهرية عن موثوقية الأداة، وطبيعة البيانات التي تعتمد عليها، والأخطار الكامنة في استخدامها كبديل عن التحقق الصحفي أو المنصات المتخصصة. فبينما تسعى بعض الجهات إلى تعزيز استخدام الذكاء الاصطناعي في مقاومة التضليل، تُظهر التجربة أن جروك قد يسهم أحيانًا في إنتاج أو تعزيز المعلومات المضللة، بدلًا من التصدي لها.

في هذا المقال، يسلط "مسبار" الضوء على ظاهرة استخدام جروك كأداة للتحقق من المعلومات على إكس، من خلال تحليل نمط الأسئلة الموجهة إليه، ودراسة طبيعة إجاباته، ومقارنة أدائه بالأدوات الصحفية المتخصصة في التحقق. كما سيتناول مدى اعتماده على مصادر موثوقة في تقديم الإجابات، إضافة إلى استعراض أبرز الأمثلة التي أثار فيها استخدام جروك جدلًا حول دقة مخرجاته، والآثار السلبية المحتملة للاعتماد عليه بشكل عشوائي.

"اسأل @Grok"

في السابع من مارس/آذار الفائت، أعلن إيلون ماسك، عن إطلاق ميزة مبتكرة جديدة تحت اسم "اسأل @Grok". تهدف هذه الميزة إلى تمكين المستخدمين من التفاعل بشكل مباشر مع روبوت الذكاء الاصطناعي "جروك"، من خلال الإشارة إلى الحساب باستخدام "@Grok" داخل التغريدات والتعليقات. بمجرد طرح السؤال، يقدم جروك إجابات مولدة باستخدام الذكاء الاصطناعي، توفر للمستخدمين معلومات سريعة حول مجموعة واسعة من المواضيع.

ومنذ إطلاقها، لاقت الميزة تفاعلًا واسعًا، إذ طرح أكثر من 743,000 مستخدم في الأسبوع الأول فقط أكثر من مليوني سؤال، ليصل الإجمالي في الأسبوع الثاني إلى أكثر من خمسة ملايين سؤال، وفقًا للبيانات الصادرة عن مركز القيادة.

ماذا يسأل المستخدمون جروك؟

في ظل الانتشار المتسارع للمحتوى على منصات التواصل الاجتماعي، تزايدت الأسئلة حول مصداقية ما يُتداول، خاصة مع تطور تقنيات تعديل الصور ومقاطع الفيديو. من أبرز الأسئلة التي يطرحها المستخدمون على جروك هي: "هل هذا الفيديو حقيقي؟" و"هل هذا الفيديو قديم أم جديد؟"، في محاولة للتحقق من توقيت ومصداقية المقاطع المنتشرة.

أبرز الأسئلة التي يطرحها المستخدمون على جروك هي "هل هذا الفيديو حقيقي؟"أحد الأسئلة التي يطرحها المستخدمون على جروك هي "هل هذا الفيديو قديم أم جديد؟"

ولم تقتصر التساؤلات على مقاطع الفيديو، بل شملت الصور أيضًا، بسؤال يتكرر وهو "هل هذه الصورة حقيقية؟"، ما يعكس القلق لدى المستخدمين من الصور المفبركة. كذلك، تتكرر الأسئلة المتعلقة بالأخبار مثل: "هل هذا الخبر صحيح؟"، وسط سيل من المعلومات المتدفقة يوميًا. 

أحد الأسئلة التي يطرحها المستخدمون على جروك هي "هل هذه الصورة حقيقية؟"أحد الأسئلة التي يطرحها المستخدمون على جروك هي "هل هذا الخبر صحيح؟"

بين الذكاء الاصطناعي والتدقيق التقليدي: مقارنة بين "جروك" و"مسبار" في التحقق من المعلومات

على الرغم من النجاح الكبير الذي حققته ميزة "اسأل @Grok"، إلا أن الإجابات التي قدّمها روبوت الذكاء الاصطناعي أثارت الكثير من المخاوف بشأن موثوقيتها، خصوصًا عندما يتعلق الأمر بالتحقق من المعلومات الحساسة أو التي تتطلب تحققًا دقيقًا. فقد أثبتت العديد من الحالات أن جروك، على الرغم من السرعة التي يوفرها في تقديم الإجابات، لا يتمتع دائمًا بالدقة الكافية عندما يتعلق الأمر بالمحتوى الذي يحتاج إلى فحص معمّق أو استنتاجات دقيقة.

في السياق، تحقق مسبار من نفس الادعاءات التي طرحها مستخدمو جروك عبر إكس، باستخدام منهجية دقيقة وموثوقة تعتمد على أدوات متخصصة وتقنيات متقدمة في تدقيق المعلومات. وقد أظهر التحقق أن هناك فارقًا كبيرًا بين الإجابات التي يقدمها جروك وتلك التي يتم الوصول إليها من خلال البحث العميق والممنهج. في بعض الحالات التي رُصدت، قدّم جروك إجابات متناقضة أو حتى مضللة.

وبهدف تسليط الضوء على الفجوة بين الذكاء الاصطناعي والتدقيق التقليدي، سنعرض مجموعة من الادعاءات التي انتشرت مؤخرًا على إكس، وحظيت بتفاعل وانتشار واسع. وقد فنّدها مسبار بالتحقق منها بشكل دقيق من خلال الرجوع إلى مصادرها الأصلية واستخدام الأدوات المتخصصة في البحث والتحقق. 

وبعد ذلك، سنقارن النتائج مع الإجابات التي قدمها جروك على نفس الادعاءات. ستكشف المقارنة عن الفارق الكبير بين النهج الذي يتبعه مسبار ومنصات التدقيق المتخصصة في التحقق من المعلومات، وبين قدرة جروك المحدودة في تقديم إجابات دقيقة وموثوقة. هذه الفجوة تبرز أهمية توخي الحذر عند الاعتماد على الذكاء الاصطناعي للتحقق من المعلومات، ما يستدعي ضرورة الاعتماد على منهجيات تدقيق علمية ومتخصصة لضمان الحصول على نتائج دقيقة للمعلومات المتداولة.

في 20 إبريل/نيسان الفائت، نشرت حسابات وصفحات على إكس مقطع فيديو، وادّعت أنه يوثق قصفًا أميركيًّا استهدف مخزنًا للأسلحة تابعًا لجماعة الحوثي في العاصمة صنعاء، خلال سلسلة غارات شنّتها الولايات المتحدة على عدة أهداف تابعة للجماعة، حينها.

فيديو متداول على أنه يوثق قصفًا أميركيًّا استهدف مخزنًا للأسلحة تابعًا لجماعة الحوثي في صنعاء

وقد طرح عدد من المستخدمين أسئلة على جروك بشأن صحة المقطع، مستفسرين عما إذا كان الفيديو يعكس حقائق حقيقية أو أنه مجرد ادعاء مضلل، وما إذا كان قد صُوّر في صنعاء أم لا.

استفسارات المستخدمين لجروك حول المقطع

بناءً على تلك الأسئلة، قدّم جروك ردًّا يعتقد فيه أن الفيديو قد يكون أصليًا ويُظهر غارة جوية أميركية في صنعاء في ذات اليوم، استنادًا إلى معلومات من بعض المصادر مثل ويكيبيديا والجزيرة، مؤكدًا تطابق محتوى الفيديو مع أوصاف الغارات التي أُبلغ عنها في تقارير إعلامية عدة.

كما أضاف تنويهًا يفيد بأن التحقق من مقاطع الفيديو المعقدة قد يتضمن بعض عدم اليقين، وأنه على الرغم من التوافق الظاهري مع الأحداث الموثّقة، يجب أخذ هذا العامل في الحسبان.

إجابة جروك عن السؤال

من جهة أخرى، تحقق مسبار من الادعاء باستخدام أدوات متخصصة وتقنيات متقدمة في التحقق، وقد توصّل إلى أن الفيديو مضلل. إذ بدأ التحقيق بتحليل الفيديو إلى مشاهد ثابتة والبحث عنها من خلال تقنيات البحث العكسي، إضافة إلى البحث المتقدم باستخدام كلمات مفتاحية متعلقة بالحدث، وهو ما مكّن من التوصل إلى حقيقته.

بعد إجراء التحقيق، تبيّن أن الفيديو ليس حديثًا كما أجاب جروك، بل يعود إلى 11 مايو/أيار 2015، وكانت قد نشرته وسائل إعلام، حينها، موضحة أن طائرات التحالف استهدفت مخازن أسلحة في جبل نقم، ما أسفر عن انفجارات ضخمة وتطاير الصواريخ بشكل عشوائي، ما تسبب في أضرار واسعة في العاصمة صنعاء.

تحقيق مسبار حول الفيديو المتداول

في تعليقات عدد من المستخدمين على المقطع المتداول، أُشير إلى أداة جروك، إذ نبّهه بعضهم إلى أن الفيديو قديم ولا يتعلق بأحداث حديثة، خلافًا لما ورد في رده الأولي. وردّ جروك لاحقًا معترفًا بالخطأ، موضحًا أن المقطع يعود بالفعل إلى عام 2015، ويوثّق غارة جوية شنّها التحالف العربي على مخازن أسلحة في صنعاء، استنادًا إلى تحقيق مسبار وتقارير إعلامية موثوقة.

ورغم هذا التصحيح، أضاف جروك في رده أنه "لا توجد تقارير تؤكد وقوع غارة أميركية في 19 إبريل 2025، رغم وجود غارات أميركية حديثة في اليمن"، وهو ما تبيّن لاحقًا أنه إجابة مضللة أيضًا.

جروك يقول إنه لا توجد تقارير تؤكد وقوع غارة أميركية في 19 إبريل 2025

فقد أظهر تحقق مسبار، باستخدام تقنيات البحث المتقدم عبر المصادر المفتوحة، أن الولايات المتحدة نفّذت بالفعل سلسلة من الغارات الجوية، مساء يوم 19 إبريل الفائت، مستهدفة مواقع حوثية في العاصمة صنعاء ومحيطها. ووفقًا لتقارير إعلامية، فقد سُمع دوي انفجارات عنيفة من جهة منطقة مجمع فج عطان، كما استهدفت الضربات الأميركية مخازن أسلحة تقع عند سفح جبل نقم ومعسكر الحفا في الجهة الجنوبية الشرقية للعاصمة.

أظهر تحقق مسبارأن الولايات المتحدة نفّذت سلسلة من الغارات الجوية مساء 19 إبريل

بذلك، يتضح أن رد جروك افتقر إلى الدقة الكافية، إذ تجاهل تقارير إعلامية موثوقة أوردت تفاصيل الغارات الأميركية في ذات التاريخ، ما يطرح تساؤلات حول موثوقية الأداة في متابعة الأخبار والتطورات المتسارعة. ورغم أن جروك يعتمد في كثير من إجاباته على وسائل إعلام مرموقة ومنصات تحقق مثل مسبار، إلا أنه يقدم أحيانًا معلومات مضللة أو ناقصة.

وفي مثال آخر على محدودية الاعتماد على جروك في التحقق، تداولت حسابات على إكس، في مارس/آذار الفائت، مقطع فيديو ادّعت أنه يُظهر لحظة تفجير جماعة الحوثي لرتل عسكري مشترك للقوات الأميركية والبريطانية داخل اليمن. وتفاعل عدد من المستخدمين مع الادعاء من خلال توجيه أسئلة إلى جروك للاستفسار عن صحة المقطع وسياقه الأصلي.

فيديو متداول على أنه يُظهر لحظة تفجير جماعة الحوثي لرتل عسكري مشترك للقوات الأميركية والبريطانية داخل اليمن

في رده، قال جروك إن "الفيديو يبدو أنه يظهر هجومًا عنيفًا للمتمردين على مواقع الجيش السوري قرب دير الزور في ديسمبر 2024، ضمن هجوم واسع. يحتفل به بعض اليمنيين، ربما لأسباب سياسية معقدة، والدلائل تشير إلى أنه من تقرير إخباري". مضيفًا أن "التفاصيل غير واضحة بدون رؤية الفيديو مباشرة".

إجابة جروك حول المقطع

لكن، تحقيقًا سابقًا أجراه مسبار بيّن أن رد جروك كان مضللًا، إذ تبيّن أن المقطع لا علاقة له بسوريا ولا بهجوم على قوات أميركية أو بريطانية، بل يُظهر مناورات عسكرية أجراها الحوثيون في اليمن. 

من خلال البحث العكسي، وجد مسبار أن الفيديو نشره "الإعلام الحربي" التابع لجماعة الحوثي، ويوثّق مناورات عسكرية أطلق عليها اسم "للقدس مسرانا"، نفّذتها وحدات نوعية من احتياط المنطقة العسكرية السادسة، في التاسع والعاشر مارس/آذار 2024، في إطار ما وصفه بيان للجماعة بـ"الاستعداد العسكري والجاهزية لخوض معركة الفتح الموعود والجهاد المقدس".

تحقق مسبار من الادعاء ووجد أنه مضلل

ما يثير الانتباه في هذا السياق ليس فقط خطأ جروك، بل أيضًا التناقض في آلية استجابته، إذ قدّم تفسيرًا جزئيًا رغم اعترافه بعدم وضوح التفاصيل. إضافة إلى ذلك، يُظهر المثال كيف يمكن لاعتماد بعض المستخدمين على ردود الأداة بشكل كامل، دون تحقق أو مراجعة، أن يُسهم في نشر المعلومات المضللة. ففي هذا المثال، أعاد أحد المستخدمين نشر رد جروك المضلل باعتباره تفسيرًا موثوقًا للفيديو، الأمر الذي قد يساهم في تعزيز سردية خاطئة وتوسيع دائرة التضليل، بفضل الثقة العمياء التي يمنحها لها بعض المستخدمين.

مستخدم يعيد نشر رد جروك المضلل كمصدر موثوق لتفسير الفيديو

في مثال آخر، تتجلى محدودية قدرة جروك على تحليل المشاهد المصوّرة والتعرف الدقيق على الشخصيات والمضامين، من خلال إجابته على مقطع فيديو جرى تداوله مؤخرًا، ادّعى ناشروه أنه يتضمن تصريحات لوزير الدفاع الإسرائيلي السابق، يوآف غالانت، يصف فيها اليمن بأنه "أحد أخطر التهديدات لإسرائيل"، ويؤكد أن "الجيش الأميركي لن ينجح في هزيمة الحوثيين دون غزو بري وتشكيل تحالف عربي وأوروبي يشارك مباشرة في الهجمات".

عند سؤال بعض المستخدمين جروك عن صحة الترجمة والمقطع، أجاب بأن الترجمة "ليست صحيحة"، وزعم أن الفيديو يُظهر نورمان فينكلشتاين، الأكاديمي والناقد السياسي الأميركي، وليس غالانت، مشيرًا إلى وجود أخطاء في الترجمة الإنجليزية. مؤكدًا "لا توجد أدلة تثبت أن وزير دفاع إسرائيلي سابق أدلى بتصريحات حول عدم قدرة الولايات المتحدة على هزيمة الحوثيين"، داعيًا المستخدمين إلى "التحقق من المصادر الأصلية لضمان الدقة".

محدودية قدرة جروك على تحليل المشاهد المصوّرة والتعرف الدقيق على الشخصيات والمضامين

غير أن تحقيق مسبار كشف عدم دقة رد جروك، إذ تبيّن أن المقطع بالفعل يُظهر يوآف غالانت، لكنه مولّد باستخدام الذكاء الاصطناعي. وقد تمكّن مسبار من العثور على الفيديو الأصلي الذي بُثّ في الثاني من فبراير/شباط الفائت، خلال مقابلة مع القناة 12 الإسرائيلية. وبمراجعة النص الكامل للمقابلة المنشور على موقع القناة، لم يجد فيه أي إشارة إلى اليمن أو إلى الهجمات ضد جماعة الحوثي.

تحقيق لمسبار كشف عدم دقة رد جروك

في مثال آخر يعكس محدودية دقة جروك مقارنة بمنصات تدقيق المعلومات المتخصصة، تلقّى مسبار استفسارات حول مقطع فيديو يُظهر عددًا من القادة العرب وهم يركبون شاحنة خلال قمة عربية. وقد أثار جدل بين مستخدمين حول ما إذا كان المقطع قد صُوّر في المغرب خلال عهد الملك الحسن الثاني، أم في ليبيا أثناء حكم معمّر القذافي. وبعد التحقق، كشف مسبار أن المقطع يعود إلى قمة عربية استضافها المغرب وليس في ليبيا.

أحد المستخدمين أشار إلى جروك مطالبًا بتوضيح مكان التقاطه، فجاء رد الأداة مضللًا، إذ أكد أن المشهد يعود إلى قمة عربية أُقيمت في ليبيا خلال حكم القذافي، مرجّحًا أنه من أواخر السبعينيات أو أوائل الثمانينيات، وادّعى عدم وجود أدلة تشير إلى أن الحدث وقع في المغرب.

جروك يؤكد أن المشهد يعود إلى قمة عربية أُقيمت في ليبيا خلال حكم القذافي

كيف قاد جروك المستخدمين إلى تفسيرات متناقضة لمقطع فيديو واحد؟

من أبرز الإشكاليات التي تكشفها متابعة أداء جروك عند التحقق من المحتوى المتداول، هو تقديمه لإجابات متناقضة على السؤال ذاته، ما يُضعف من موثوقيته ويُكرّس حالة من الالتباس لدى المستخدمين بدلًا من توضيح الحقائق.

في الأيام الأخيرة الفائتة، تداول عدد من المستخدمين مقطع فيديو، ادّعوا أنه يوثّق طقوسًا شيطانية خلال جنازة البابا فرنسيس في الفاتيكان. وسرعان ما وُجهت إلى جروك عدة أسئلة متعلقة بالفيديو، منها ما إذا كان يوثّق بالفعل جنازة البابا، وما دلالة الصليب المقلوب على ملابس المشاركين فيه.

فيديو متداول على أنه يوثّق طقوسًا شيطانية خلال جنازة البابا فرنسيس في الفاتيكان

في رده الأول، تبنّى جروك سردية أن الفيديو "يبدو حقيقيًا"، ويُظهر فعلاً جزءًا من موكب جنازة البابا فرنسيس، معتبرًا أن الصليب المقلوب الظاهر على ملابس المشاركين هو رمز كاثوليكي تقليدي يُعرف بـ"صليب القديس بطرس"، ولا يمت بصلة إلى أي دلالات شيطانية. كما نفى وجود أية تقارير تشير إلى طقوس غريبة خلال الجنازة، وأحال المستخدمين إلى موقع "أخبار الفاتيكان" للتحقق.

جروك يقول أن الفيديو "يبدو حقيقيًا"، ويُظهر فعلاً جزءًا من موكب جنازة البابا فرنسيس

لكن، في رد لاحق على سؤال آخر حول الرموز في ذات المقطع، تناقض جروك مع تفسيره الأول، إذ أشار إلى أن الفيديو "لا يوثّق جنازة البابا فرنسيس"، بل يظهر "موكبًا دينيًا تقليديًا" مرتبطًا بطقوس "أسبوع الآلام" في إسبانيا، وتحديدًا في مدينة قرطاجنة، حيث تُنظم مواكب يُستخدم فيها صليب القديس بطرس.

رد جروك

هذا التناقض لا يعكس فقط غياب التدقيق المعمّق في مضمون الفيديو، بل يُظهر أيضًا افتقار الأداة إلى قاعدة بيانات مرجعية موحّدة عند التعامل مع أسئلة ومشاهد متداولة بصيغ مختلفة.

في المقابل، استند مسبار في تحقيقه إلى منهجية تحقق متعددة الخطوات، اعتمدت على المطابقة البصرية الدقيقة والتحقق الزمني والجغرافي، لتحديد السياق الحقيقي للفيديو. إذ بدأ في البحث العكسي عن الفيديو وتحليل العناصر البصرية الظاهرة في المقطع، بما في ذلك تصميم المبنى والرموز الدينية والملابس التي يرتديها المشاركون، ثم قارنها بمشاهد موثّقة من مواكب أسبوع الآلام الكاثوليكية في إسبانيا. 

وأظهرت المقارنة تطابقًا واضحًا مع موكب أُقيم داخل كنيسة سانتا ماريا دي غراسيا في مدينة قرطاجنة الإسبانية، وتحديدًا مع جماعة دينية تُعرف باسم "فرقة التوبة للقديس بطرس". كما دعم مسبار تحقيقه بمراجعة تسجيلات نشرتها وسائل إعلام محلية، أظهرت المجموعة ذاتها بملابسها المميزة خلال موكب الأربعاء المقدّس. 

تحقيق مسبار حول الفيديوتحقيق مسبار حول الفيديو

تُظهر هذه الأمثلة وغيرها من الحالات أن جروك، على الرغم من تطوره في مجال الذكاء الاصطناعي، لا يزال يعاني من مشكلات في دقة الإجابات التي يقدمها. إذ تؤكد تقارير متعددة أن أدوات الدردشة الذكية قد تقع في ما يُعرف بـ"الهلوسة"، وهي إنتاج معلومات خاطئة أو مضللة بثقة، حتى في غياب بيانات كافية. ويعود ذلك إلى اعتماد هذه الأنظمة على توقع تسلسلات الكلمات الأكثر احتمالًا استنادًا إلى بيانات التدريب، لا على آليات تحقق فعلية. وعندما تُواجه بمحتوى متحيز أو أسئلة غامضة، فإنها قد تولد إجابات تبدو واثقة لكنها تفتقر إلى الدقة.

وعليه، فإن أداء جروك يكشف عن الفجوة القائمة بين ما تستطيع أدوات الذكاء الاصطناعي تقديمه من سرعة واستجابة فورية، وبين ما يتطلبه التحقق الفعلي من دقة وتحليل وسياق. بالمقابل، تستند منصات التحقق، مثل مسبار وغيرها، إلى تحقيقات بشرية دقيقة، ومراجعة مصادر متعددة، وفهم سياقي أعمق، وهو ما يجعل نتائجها أكثر موثوقية. لذلك، فإن أفضل استخدام لأدوات مثل "جروك" يجب أن يكون تكميليًا لا بديلًا عن التدقيق البشري باستخدام التقنيات والأدوات المتخصصة.

اقرأ/ي أيضًا

جروك: هل ستؤدي جهود ماسك إلى ثورة في الذكاء الاصطناعي أم إلى موجة من التحيز والتضليل؟

تصاعد مخاوف الخبراء من استغناء ميتا عن مدققي المعلومات وحلول مقترحة لتفادي الأزمة

المصادر

اقرأ/ي أيضًا

الأكثر قراءة

مؤشر مسبار
سلّم قياس مستوى الصدقيّة للمواقع وترتيبها
مواقع تم ضبطها مؤخرًا
publisher
publisher
publisher
publisher
publisher
publisher
publisher
publisher
عرض المواقع