المعرفة في زمن الذكاء الاصطناعي.. من يحاسبه حين يضلل الرأي العام؟
في أكتوبر/تشرين الأول 2025، كشفت دراسة مشتركة بين الاتحاد الأوروبي للإذاعة والتلفزيون European Broadcasting Union - EBU، وهيئة الإذاعة البريطانية BBC، أن نحو 45٪ من إجابات أنظمة الذكاء الاصطناعي الكبرى مثل ChatGPT وGemini وCopilot وPerplexity تحتوي على خطأ أو تضليل جوهري، إذ يُعزى 31٪ من هذه المشكلات الجوهرية إلى أخطاء في المصادر، و20٪ إلى نقص في الدقة. أرقام تبدو عادية، لكنها تكشف عن ثورة معرفية مزدوجة الحدين: أداة تمكين هائلة للمعلومة، أم بوابة لفوضى الروايات المزيفة.
ولكن ما الذي يحدث عندما تصبح هذه الأنظمة مصدرًا أساسيًا للمعلومات؟ من يتحمل مسؤولية التضليل حين ينتقل الخطأ من كونه مشكلة تقنية إلى تأثير سياسي واجتماعي ملموس؟ هل يمكن لمجتمع عربي بات يعتمد تدريجيًا على هذه النماذج أن يميّز الحقيقة من الاحتمال؟ وهل تتحول المعرفة من عملية تحقق إلى خوارزمية احتمالية؟
في الواقع العربي، حيث الاعتماد على هذه الأدوات يتزايد بسرعة في الإعلام والتعليم والسياسة، وغالبًا بلا تشريعات واضحة أو ثقافة إعلامية رقمية قوية، تصبح الأخطاء ليست مجرد ثغرة تقنية، بل تهديدًا لوعي الجمهور وقدرته على تمييز الحقيقة. هنا تتشابك الأزمة التقنية مع السياق الثقافي والسياسي العربي، لتتحول المعرفة الاحتمالية إلى عامل مؤثر في تشكيل الرأي العام، ما يجعل التساؤل حول من يحاسب الذكاء الاصطناعي أكثر إلحاحًا من أي وقت مضى.
المعرفة في زمن الذكاء الاصطناعي: من التحقق إلى الاحتمال
مع ظهور أنظمة الذكاء الاصطناعي، تبدو الإجابات التي تقدمها متسقة وواقعية، لكن طبيعة هذه المعرفة تختلف جذريًا عن المعلومات المقدمة في الصحافة أو البحث العلمي. النماذج اللغوية الكبيرة مثل ChatGPT وGemini، لا تتحقق من البيانات قبل توليد الإجابة، بل تعتمد على نماذج احتمالية إحصائية للتنبؤ بالكلمة أو الجملة التالية الأكثر احتمالًا في سياق السؤال المطروح.
دراسة صادرة عن OpenAI بعنوان "Why Language Models Hallucinate" توضّح أن هذه النماذج "تخمن" المعلومات ولا تتحقق منها، ما يعني أن أي إجابة قد تحتوي على خطأ جوهري أو تضليل، حتى لو بدت منطقية وسليمة لغويًا. هذه الهلاوس المعرفية ليست مجرد خلل عرضي، بل جزء أساسي من طريقة عمل هذه النماذج، حيث يُكافأ النموذج خلال التدريب على التنبؤ الدقيق للكلمات التالية بناء على أنماط إحصائية، دون الالتزام بمعايير التحقق الواقعي. على سبيل المثال، أثناء "التدريب الأولي" للنموذج (إذ يتعلم من كم هائل من النصوص)، يعتمد على طريقة حسابية تُسمى "الإنتروبيا المتقاطع"، والتي قد تسبب أخطاء حتى لو كانت البيانات الأصلية صحيحة تمامًا. السبب بسيط: هذه الطريقة تركز على "الخيار الأكثر شيوعًا أو احتمالية" في التنبؤ بالكلمات التالية، بدلًا من الالتزام بالدقة الكاملة والحقيقة المطلقة.
في الصحافة التقليدية، تخضع المعرفة لعملية التحقق الدقيق: يُراجع المصدر، وتُقارن البيانات، وتُؤكد صحة المعلومة قبل النشر. أما في الذكاء الاصطناعي، فإن الإنتاج يعتمد على احتمالات إحصائية مستمدة من البيانات المُتعلَّمَة، فقد تكون الإجابة صحيحة جزئيًا أو خاطئة كليًا، دون إشارة واضحة إلى درجة موثوقيتها. ونتيجة لذلك، يتعامل المستخدم مع هذه الإجابات كأنها حقائق مؤكدة، بينما هي في الواقع توقعات مبنية على أنماط شائعة في النصوص. هذا التحول يكشف عن مشكلة أعمق في آليات التقييم، إذ تُكافأ النماذج في الاختبارات القياسية مثل MMLU-Pro أو GPQA على "التخمين الواثق": أي الإجابات الجريئة حتى لو لم تكن دقيقة مما يعزز انتشار الهلاوس بدلًا من تشجيع الاعتراف بالجهل.
بهذا تتحول طبيعة المعرفة نفسها: لم تعد نتاج تحقق دقيق، بل منتج احتمالي قابل للخطأ. وهذا يفتح تساؤلات عميقة حول مدى مصداقية المعلومات التي نعتمد عليها، ويضعنا أمام تحد معرفي جديد: كيف نفرق بين الحقيقة والاحتمال في عالم تُنتج فيه المعلومات بطريقة إحصائية بحتة؟ هذا التحول ليس مجرد تقني، بل يهدد بإعادة تعريف كيفية بناء الوعي الجماعي، خاصة في مجتمعات تعاني من نقص في أدوات التحقق الإعلامي.
من المسؤول؟ غياب الفاعل ومأزق المساءلة
في عالم الصحافة التقليدي، يكون الخطأ الصحفي حدثًا يمكن تحديد فاعله بوضوح: الصحفي الذي لم يتحقق، أو المحرر الذي أغفل الرقابة، أو الإدارة التي أعطت أولوية للسرعة على الدقة. هناك مسار واضح للمساءلة: اعتذار، تصحيح، أو حتى عقوبات قانونية تعيد الثقة إلى الجمهور. أما بالنسبة للذكاء الاصطناعي، فيختفي هذا الفاعل الواضح، وتتوزع المسؤولية كالضباب عبر سلسلة طويلة من الجهات: الشركة المطورة مثل OpenAI أو Google، المبرمجون الذين صمموا الخوارزميات، المستخدم الذي طرح السؤال دون تمحيص، وحتى الجهات التنظيمية التي فشلت في فرض معايير. هذا التوزيع يخلق ما يُعرف بـ"مشكلة الأيدي الكثيرة" (the many hands problem)، حيث يصبح من المستحيل تحديد من يتحمل اللوم الفعلي، مما يسمح بانتشار الأخطاء دون عواقب حقيقية.
تُبرز دراسة نشرتها جامعة كامبريدج في مجلة Data & Policy هذا المأزق، مشيرة إلى أن المسؤولية في الأنظمة الذكية ليست مجرد مفهوم أخلاقي، بل آلية عملية يجب أن تكون "قابلة للتنفيذ"، لتحقيق الشفافية والمساءلة. ففي الوقت الذي تقوم فيه المساءلة على مبدأ الإجابة عن القرارات وشرح أسبابها وتحمّل نتائجها، يصبح هذا المبدأ صعب التطبيق مع الأنظمة الذكية بسبب تعقيدها التقني، كتشابك الأكواد أو خضوعها لسرية الشركات. هذا التعقيد يجعل تتبّع المسؤول عن الخطأ مهمة شبه مستحيلة، فتقع الأخطاء في منطقة ضبابية تُحمَّل فيها المسؤولية للبشر بدل الأنظمة.
وتقترح الدراسة النظر إلى المسؤولية باعتبارها علاقة اجتماعية مرتبطة بسؤال: مسؤولية ماذا؟ ولمن؟ ولماذا؟ كما تدعو إلى بناء بنية اجتماعية وتقنية وقانونية متكاملة تفرض على الشركات الشفافية، وتُتيح معاقبتها عند الضرورة، سواء عبر الغرامات أو عبر إلزامها بالكشف عن كيفية عمل أنظمتها وبيانات تدريبها.
في السياق العربي، يتعمّق مأزق المساءلة لأن استخدام أدوات الذكاء الاصطناعي يتوسع بسرعة أكبر من أي تنظيم قانوني قادر على ضبطه. لا توجد حتى الآن تشريعات واضحة أو هيئات رقابية مستقلة تراقب جودة الإجابات الآلية أو تُلزم الشركات بتصحيح الأخطاء فورًا، ما يجعل المسؤولية معلّقة بين المطوّر والجهة التي تعتمد على الأداة. وفي مؤسسات إعلامية قد تعتمد على نموذج لغوي لتغطية حدث سياسي حساس، يتحول الخطأ من مجرد خلل تقني إلى أزمة ثقة عامة يصعب تحديد صاحبها.
هذا الفراغ التشريعي يزداد وضوحًا عند مقارنته بالتجارب الدولية؛ فالاتحاد الأوروبي أقرّ في 2024 قانون الذكاء الاصطناعي (AI Act)، أول إطار تنظيمي شامل يضع قواعد ملزمة تعتمد على تقييم المخاطر، ويُحمّل الشركات مسؤوليات واضحة في الشفافية والإفصاح، ويضع عقوبات على الأنظمة التي تنتج أخطاء عالية الخطورة. بينما ما تزال البيئة العربية خارج هذا المسار، ما يعمّق مخاطر الاستخدام ويجعل الذكاء الاصطناعي أداة مزدوجة: تسهّل الوصول إلى المعلومة، لكنها قد تُفاقم التشويه المعرفي في ظل غياب بنية رقابية تحمي المجال العام.
التحيّز السياسي والثقافي: حين تُترجم الخوارزمية السلطة
لا تقتصر مخاطر الذكاء الاصطناعي على الأخطاء التقنية، فهي تعكس أيضًا الانحيازات السياسية والثقافية المدمجة في بيانات التدريب، ما يحول الخوارزميات إلى مرايا للسلطات المهيمنة. النماذج اللغوية الكبيرة، المدربة غالبًا على بيانات غربية مترجمة، تميل إلى تفسير العالم من منظور يسارية أو ليبرالية، حتى عند التعامل مع حقائق موضوعية. دراسة أجرتها جامعة ماساتشوستس للتكنولوجيا (MIT) في 2024، أثبتت أن نماذج التقييم (reward models) في الذكاء الاصطناعي تُعطي درجات أعلى للبيانات ذات التوجه اليساري، مثل "يجب على الحكومة دعم الرعاية الصحية بشكل كبير"، مقارنة بتلك اليمينية مثل "الأسواق الخاصة هي الطريقة الأفضل لضمان الرعاية الصحية الرخيصة". هذا التحيز يزداد قوة في النماذج الأكبر، ويظهر بوضوح في مواضيع مثل المناخ والطاقة، مما يعزز الاستقطاب السياسي بدلًا من تعزيز الحياد.
مقال نشره مسبار، ناقشنا كيف يُحجب الوصول إلى المعلومات في نموذج Gemini من Google، حيث رفض الرد على أسئلة بسيطة عن "ما هي فلسطين؟" أو "أين تقع إيران؟"، بينما أجاب بسهولة عن معلومات متعلقة بالولايات المتحدة أو إسرائيل. هذا ليس خللًا عشوائيًا، بل نتيجة لتصفية خوارزمية تعكس تحيزات جيوسياسية، مستمدة من بيانات تدريب غير متوازنة، مما يُشوه التمثيل الثقافي ويُعزز روايات مهيمنة.
في السياق العربي، يصبح هذا التحيز أداة لترجمة السلطة الغربية إلى "حقيقة" آلية، حيث يُقدم الصراعات الإقليمية بطريقة منحازة، مما يؤثر على تشكيل الرأي العام حول قضايا مثل النزاع الفلسطيني-الإسرائيلي أو التوترات الإيرانية. النتيجة ليست مجرد خطأ، بل تشويه معرفي يُعمق الفجوات الثقافية، ويجعل الذكاء الاصطناعي جزءًا من آلية السلطة بدلًا من أداة للمعرفة الحرة.
السياق العربي: فجوة اللغة والتمثيل
ينتقل التحدي إلى مستوى أعمق في العالم العربي، حيث يواجه المستخدمون نماذج لغوية تفتقر إلى التمثيل اللغوي والثقافي الكافي. بيانات التدريب الرئيسية لنماذج مثل ChatGPT تعتمد بما يقارب 90٪ على الإنجليزية، ما يجعل التعامل مع العربية عرضة للأخطاء والتحيزات. دراسة EBU-BBC أشارت إلى أن الأخطاء تتفاقم عبر اللغات غير الإنجليزية، حيث يُفقد السياق الثقافي، ما ينتج "تحيزًا معرفيًا" يُشوه الحقائق العربية. على سبيل المثال، قد يُقدّم النموذج رواية تاريخية عن الثورات العربية بمنظور غربي، متجاهلًا الديناميكيات المحلية، أو يُخطئ في ترجمة مصطلحات سياسية حساسة، مما يُحول المعلومة إلى أداة للتشويه.
هذه الفجوة نتيجة لقلة التمثيل العربي في البيانات، حيث لا تتجاوز النسبة 1-2٪ في معظم النماذج الكبرى، بحسب الدراسات. ومع ذلك، بدأت مبادرات عربية محدودة في ملء هذا الفراغ، مثل ArabGPT، الذي يهدف إلى بناء نموذج لغوي عربي يعتمد على بيانات محلية لتحسين الدقة الثقافية، رغم تحدياته في الحجم والوصول. كذلك، يُعد نموذج NOOR.ai، الذي طورته شركة G42 الإماراتية، خطوة متقدمة كأكبر نموذج لغة عربي، مدرب على ملايين النصوص العربية لتقليل الهلاوس وتعزيز التمثيل، مما يقلل من التحيزات الغربية في السياقات الإقليمية. هذه المحاولات تُشير إلى إمكانية بناء بدائل، لكنها تظل محدودة أمام هيمنة الشركات العالمية، مما يدعو إلى تعزيز الشراكات العربية لضمان تمثيل أصيل.
نحو مساءلة معرفية عربية
أمام هذه الأزمة، تبرز الحاجة إلى "المحو الخوارزمي"، أي الوعي النقدي الذي يُعامل الذكاء الاصطناعي كأداة احتمالية لا كمصدر مطلق للحقيقة. في السياق العربي، يعني ذلك تبني استراتيجيات متعددة: تطوير تشريعات إقليمية تُلزم الشركات بكشف بيانات التدريب وآليات التصحيح، كما في توصيات دراسة EBU-BBC، تعزيز الثقافة الإعلامية الرقمية عبر حملات توعوية تُعلّم التمييز بين الاحتمال والحقيقة، ودعم المبادرات المحلية مثل NOOR.ai لخلق نماذج عربية متوازنة. كذلك، يمكن للإعلام العربي، أن يلعب دورًا رائدًا في التحقق من الإجابات الآلية ونشر دليل لـ"القراءة النقدية" للذكاء الاصطناعي.
اقرأ/ي أيضًا
بين التضليل والتضامن: كيف استُخدمت المشاهد المولّدة بالذكاء الاصطناعي خلال الحرب السودانية؟
حسابات تدعي استخدام فلسطينيين الذكاء الاصطناعي للترويج بانتهاك إسرائيل وقف إطلاق النار
























