تصاعد مخاوف الخبراء من استغناء ميتا عن مدققي المعلومات وحلول مقترحة لتفادي الأزمة
في السابع من يناير/كانون الثاني الفائت، أعلنت شركة ميتا المالكة لمواقع التواصل الاجتماعي فيسبوك، وإنستغرام، وواتساب وثريد، عبر مقطع فيديو ظهر فيه مارك زوكربيرغ، مالك الشركة، أنها ستوقف تعاونها مع مدققي المعلومات على مواقعها.
قال زوكربيرغ في الفيديو، بأنّ المجموعة "ستستغني عن العاملين في خدمة تقصّي وتدقيق المعلومات وستستعيض عنهم بملاحظات المستخدمين، وسيتم تطبيق هذا البرنامج ابتداءً في الولايات المتحدة الأميركية. موضحًا أن هذه الخطوة تهدف إلى دعم "المزيد من حرية الخطاب وقلة الأخطاء"، من خلال الاستفادة من مساهمات المستخدمين لتوفير سياق للمنشورات المضللة.
بذلك، تكون ميتا قد تبنت نفس النهج الذي تبنته سابقًا شركة إكس التي نفذت سياسات مماثلة بعد استحواذ إيلون ماسك عليها. لكن دراسة أجراها باحثون من كلية HEC في باريس، وعلى رأسهم ديفيد ريستريبو أماريليس وهو أستاذ مشارك في الذكاء الاصطناعي والقانون، تؤكد أن عامل السرعة يقوض مثل هذه السياسات، حيث تنتشر المعلومات الكاذبة أسرع بكثير من التصحيحات.
يتحدث أماريليس في هذا الصدد، ويشير إلى أن العالم شهد بشكل متزايد كيف يمكن للمعلومات المضللة أن تقلب الأسواق المالية وتؤثر على سمعة الشركات بسرعة. على سبيل المثال، في عام 2023، تسببت صورة مولدة بالذكاء الاصطناعي تُظهر انفجارًا مزيفًا بالقرب من البنتاغون في اضطراب سوق الأسهم الأميركية، ما أدى إلى انخفاض وجيز ولكنه مؤثر.
وفي نوفمبر/تشرين الثاني 2022، انتشرت تغريدة مزيفة من شركة إيلي ليلي، وعدت بتوفير الأنسولين مجانًا، ما كلف الشركة 22 مليار دولار في سوق الأسهم. أضاف أماريليس أن هذه الظاهرة ليست جديدة، ففي عام 2013، تسبب تقرير مزيف عن انفجارات في البيت الأبيض بفقدان مؤشر S&P 500 نحو 130 مليار دولار من قيمته السوقية خلال دقائق.
محددات الملاحظات المجتمعية في مواجهة المعلومات المضللة
يشير الباحث في الذكاء الاصطناعي والقانون، إلى أنه بعد سنوات من البحث استنادًا إلى قاعدة بيانات تحتوي قرابة 240,000 ملاحظة من برنامج "الملاحظات المجتمعية" التابع لمنصة إكس، تبيّن وجود محددات لهذا البرنامج تقلل كفاءته.
تشير نتائج البحث إلى أن الملاحظات المجتمعية تضاعف احتمال حذف التغريدة من قبل منشئها. إلى جانب ذلك، فإن الملاحظة تصل في كثير من الأحيان بعد فوات الأوان، إذ إن نحو 50% من عمليات إعادة التغريد تحدث خلال الساعات الست الأولى من عمر التغريدة. وفي حين تقلل الملاحظات المجتمعية نسبة إعادة التغريد بمتوسط 60%، فإن الملاحظة تستغرق أكثر من 18 ساعة ليتم نشرها وهي مدة جدًا لمكافحة الانتشار الأولي السريع للمعلومات المضللة.
هذه النتائج تؤكدها دراسة أجرتها MIT عام 2018، التي أظهرت أن المعلومات الكاذبة يمكن أن تنتشر "10 إلى 20 مرة أسرع من الحقائق". كما يُبرز ذلك تحديًا جوهريًا وهو أنه على الرغم من أن تدقيق الحقائق القائم على المجتمع هو أداة قيمة، إلا أن تصميمه الحالي وسرعته غير كافيين للحد من الانتشار السريع للمعلومات المضللة الزائفة.
الشبكة الدولية لتقصي الحقائق ترسل رسالة مفتوحة إلى زوكربيرغ
أثار إعلان زوكربيرغ موجة من الانتقادات، إذ تقدمت الشبكة الدولية لتقصي الحقائق IFCN، برسالة مفتوحة إليه، موقعة من أكثر من 125 مؤسسة لتدقيق الحقائق حول العالم، حذرت فيها من زيادة المخاطر الناجمة عن المعلومات المضللة وتأثيرها على الشركات والمجتمع. وأكدت أن هذا النهج يقوض المساءلة ويمكن أن يزيد من انتشار المعلومات المضللة والزائفة بسرعة.
كما أفادت الشبكة بأن برنامج الملاحظات المجتمعية لن يؤدي إلى تجربة مستخدم إيجابية، مستشهدة بنتائج الأبحاث التي وجدت أن العديد من ملاحظات المجتمع لا يتم عرضها أبدًا، لأنها تعتمد على إجماع سياسي واسع النطاق بدلًا من اعتمادها على الأدلة للتأكد من دقتها.
واقترحت أن يتم تطبيق برنامج الملاحظات المجتمعية إلى جانب برنامج تقصي الحقائق من قبل الجهات الخارجية، مشيرة إلى أن هذا الدمج قادر على خلق نموذج جديد وفعال لمواجهة المعلومات المضللة.
كيف يمكن تحسين جودة آليات مواجهة التضليل؟
يقترح أماريليس أن دمج أدوات الذكاء الاصطناعي يمكن أن يعزز الجهود البشرية بشكل كبير، ما يتيح اكتشاف المحتوى الضار والإبلاغ عنه بشكل أسرع. ويضرب مثالًا لنموذج قابل للتطبيق، يمكن من خلاله توظيف نماذج التعلم الآلي المدربة على التعرف على أنماط المعلومات المضللة لتعمل كنظام إنذار مبكر، بينما تعمل نماذج اللغة الكبيرة (LLMs) على تحليل الأنماط اللغوية والموضوعية للمنشورات الفايروسية لتوفير السياق في الوقت الفعلي لانتشار الادعاء، إذ يتيح هذا النهج المزدوج للمنصات والشركات الاستجابة بشكل أكثر فعالية وبسرعة عالية. إلى جانب هذا، يشير إلى أهمية تعزيز الشراكات بين منصات التواصل الاجتماعي والحكومات والشركات الخاصة ودروه في وضع معايير موحدة لمكافحة المعلومات المضللة.
وفي السياق، يشير أماريليس إلى ضرورة معالجة التنظيم المفرط والسياسات غير الفعالة في مجال الذكاء الاصطناعي، ويقترح بناءً على أبحاث أجراها في هذا المجال أن يكون معيار حقوق الإنسان هو المعيار التنظيمي الرئيسي لتقييم أنظمة الذكاء الاصطناعي وتحقيق التوازن بين الأغراض التي تخدمها في السوق.
كما يقترح نهجًا تطوريًا ودوريًا لضمان المساءلة بما يتجاوز مرحلة تصميم النماذج. موضحًا أنه يمكن تحقيق ذلك من خلال السيطرة البشرية الفعالة والتفاعل بين الإنسان والذكاء الاصطناعي عبر دورة حياة النظام بالكامل. ما يتيح لصناع القرار تحديث وتكييف أنظمة الذكاء الاصطناعي باستمرار لمواجهة التحديات التي يتم تحديدها خلال كل مرحلة.
اقرأ/ي أيضًا
هل يؤثر قرار ميتا بإيقاف التعاون مع مدققي المعلومات على انتشار التضليل؟
هل ازداد خطر دخول منصة إكس في دوامة التضليل الإعلامي بعد تولي إيلون ماسك إدارتها؟