خوارزميات تصنع الوعي.. كيف يتحول الذكاء الاصطناعي إلى أداة للتضليل وإعادة تشكيل الحقيقة
بين يومي 30 يوليو/تموز و7 أغسطس/آب 2024، شهدت مدن بريطانية عدة من بينها ليفربول وساوثبورت، موجة من الاضطرابات وأعمال الشغب بعد انتشار أخبار مضللة على وسائل التواصل الاجتماعي، زعمت أن المشتبه به في حادثة طعن ثلاثة أطفال في ساوثبورت مهاجر غير شرعي.
ووفقًا لصحيفة ذا غارديان (The Guardian)، لعبت خوارزميات التوصية والمحتوى المولّد بالذكاء الاصطناعي دورًا في تضخيم تلك المزاعم، عبر نشر صور وفيديوهات مزيفة تُظهر مهاجرين مسلمين في مشاهد عنف، ما أجّج الغضب الشعبي وأدى إلى اعتداءات على مراكز لجوء وممتلكات تعود لأقليات مهاجرة.
كما أشار تقرير صادر عن لجنة العلوم والتكنولوجيا في البرلمان البريطاني، إلى أن أنظمة الذكاء الاصطناعي والتوصية الآلية أسهمت في تعزيز انتشار المحتوى المثير للكراهية، إذ أعطت أولوية للمنشورات التي تُثير الغضب والخوف، ما ساعد على حشد الجماهير في الشوارع.
ووفقًا لتحليل نشرته كلية لندن للاقتصاد والعلوم السياسية (LSE)، فإن هذه الأحداث تُبرز كيف لم يعد الذكاء الاصطناعي مجرد أداة تقنية، بل أصبح فاعلًا ثقافيًا يُسهم في إعادة تشكيل الوعي الجمعي وتوجيه الانفعالات الاجتماعية، في مثال حي على قدرة التقنيات الرقمية على تحويل المعلومة المضللة إلى حدث جماعي يُعيد رسم خريطة الانقسام داخل المجتمع.
الذكاء الاصطناعي وصناعة المحتوى: من تكييف التفضيلات إلى توجيه الوعي
ربما يمكن القول إن المحتوى لم يعد يعكس تفضيلاتنا الشخصية وخياراتنا الفردية بقدر ما أصبح يعكس ما تتوقعه الخوارزميات عنا وعن خياراتنا. إن كل تفاعل نقوم به سواء كان إعجابًا أو تعليقـًا أو مشاهدةً أو حتى نظرة للمحتوى الرقمي تتحول إلى بيانات تغذي هذه الخوارزميات، إذ يُعاد تشكيل المحتوى الذي نشاهد أو نقرأه وفق ما تحدده خوارزميات الذكاء الاصطناعي على أنه الأكثر جذبًا لنا. وهذا ما يعرف اليوم بالتغذية الخوارزمية (Algorithm Feed)، ومن خلاله تدير هذه الخوارزميات ترتيب المحتوى ونوعيته وتحدّد ما يظهر لنا على الشاشة.
في منصات مثل فيسبوك، يمكن ملاحظة أن عرض المحتوى من منشورات وفيديوهات وغيرها لا يتم وفق تسلسلٍ زمني، بل عبر أنظمة الذكاء الاصطناعي الخاصة بالمنصة التي تقوم بترتيب المحتوى بناء على احتمالية تفاعل المستخدم معه. هذه الأنظمة تسعى إلى إبقاء المستخدم أطول وقت ممكن على المنصة، ما يجعلها تُبرز المحتوى الأكثر إثارة للعاطفة أو الجدل أو الاستقطاب.
أما يوتيوب، فيعتمد على خوارزميات تحليل تاريخ المشاهدات، ما يؤدي تدريجيًا إلى تضييق دائرة الاهتمامات وحصرها ضمن نطاق محدد، فيُعاد تشكيل وعي المستخدم من خلال المحتوى المتشابه الذي يُعرض عليه باستمرار.
بينما يتميز تيك توك بخوارزميات توصف بأنها الأسرع تعلّمًا، إذ تعتمد على التفاعل اللحظي وتقوم بتحليل كل نقرة أو توقف أو إعادة مشاهدة، لتغمر المستخدم سريعًا بسيل من المقاطع التي تتوافق مع سلوكه في الوقت الفعلي، في ما يشبه نظام مراقبة مستمر لتفاعلاته الدقيقة.
ولا يقتصر الأمر على منصات التواصل الاجتماعي، فحتى أدوات الذكاء الاصطناعي التوليدي مثل ChatGPT تشارك في هذه العملية بطريقة مختلفة، من خلال توليد الإجابات استنادًا إلى أنماط الاستخدام الشائعة واللغة الأكثر تداولًا ضمن بيانات التدريب. وهكذا، يعاد إنتاج الوعي البشري في صيغ برمجية تشكّل تصورًا رقميًا للعالم، لم يعد الإنسان يملك رؤية واضحة لمن يصيغه ولا قدرة كاملة على التحكم به.
تشير دراسات عدة إلى أن أنظمة الذكاء الاصطناعي التي تتحكم بخوارزميات عرض المحتوى تُنتج ما يُعرف بـ "فقاعة الفلترة" (Filter Bubble)، وهي حالة من العزلة المعلوماتية تنشأ عندما يتعرّض المستخدم فقط للمحتوى المتوافق مع ميوله وتحيزاته. وقد صاغ الباحث إيلاي بارايزر (Eli Pariser) هذا المفهوم عام 2011، لوصف أثر الخوارزميات التي تُخصّص ما يراه المستخدم على الإنترنت استنادًا إلى تاريخه السلوكي وتفضيلاته.
وفقًا لتقارير صادرة عن جامعة أكسفورد ومركز "بيو" للأبحاث (Pew Research Center)، تسهم هذه الفقاعات في تقليص التنوّع المعرفي وزيادة الاستقطاب الرقمي، إذ تغذّي المستخدم بمحتوى يعزز قناعاته السابقة ويحد من تعرضه لوجهات نظر مختلفة.
وبهذا المعنى، تعيد الخوارزميات تشكيل المجال المعرفي للمستخدم بطريقة غير مرئية، ما يجعل الذكاء الاصطناعي أحد العوامل البنيوية في توجيه الوعي الرقمي، لا من خلال فرض محتوى مباشر، بل عبر تحديد ما يُعرض وما يُخفى ضمن النظام المعلوماتي الحديث.
الانحياز الخوارزمي: الوجه الخفي للتضليل
تبدو أنظمة الذكاء الاصطناعي كأنظمة محايدة موضوعية وأدوات لا تتأثر بالعوامل البشرية، إلا أن اختبارات أجريناها تظهر أن هذه الأنظمة وخوارزمياتها ليست محايدة كما نتصور. تُصمّم هذه الخوارزميات وتُدرّب على بيانات وضعها الإنسان، ما يجعلها تعكس –إن كان بوعي أو بدونه– القيم الثقافية والخلفيات الاجتماعية والتحيزات السياسية والنظم الفكرية للمبرمجين أو للشركات القائمة على برمجتها. وتتحول هذه الانحيازات مع مرور الوقت إلى أنماط متكررة تتحول بدورها إلى تغذية لهذه الأنظمة، ما يعزز إعادة إنتاجها بصورة جدية مما يعني تعزيزًا لصناعة "فقاعة الوعي" هذه.
وتُظهر دراسات عديدة أن نماذج الذكاء الاصطناعي قد تُظهر تحيزًا في مجالات متعددة، ففي مجال التعرف على الوجوه، حيث أظهرت دراسات من (MIT MEDIA LABS) أن الأنظمة أكثر قدرة على التعرف على الرجال ذوي البشرة الفاتحة من غيرهم، وهو ما يعكس تحولًا من انحياز تقني إلى انحياز اجتماعي ليس بقليل التأثير حين تستخدم هذه الأنظمة في مؤسسات الدول والتوظيف.
تُظهر الصورة وجوهًا مركبة من برلمانيين من ست دول وتُبرز تباين لون البشرة، ما كشف انحياز خوارزميات التعرف للوجوه الفاتحة على حساب الداكنة. كما أظهرت دراسة صادرة عن جامعة هارفرد أن تقديم التوصيات الإخبارية تحكمه خوارزميات تتصف بالميل نحو تضخيم المحتوى المثير للعواطف والاستقطاب، حيث أنها تزيد التفاعل وتشد الانتباه. حتى أنظمة الذكاء الاصطناعي مثل ChatGPT تحمل توجهات ثقافية وقيمية تختلف بحسب اللغة والمنطقة مما يعني نفي صفة الكونية والحيادية عن هذه النماذج بحسب دراسة MIT.
يُظهر المثال تباين إجابات ChatGPT بين العربية والإنجليزية حول حقوق المرأة في العالم العربي، كاشفًا عن تحيّز ثقافي في صياغة الردود.
تشير أبحاث في مجالات الإعلام والذكاء الاصطناعي إلى أن الخوارزميات تُدرَّب غالبًا على بيانات تُهيمن عليها ثقافات وفئات سائدة، ما يؤدي إلى إعادة إنتاج التحيّزات البنيوية داخل الأنظمة الرقمية نفسها. ووفقًا لتقرير "AI and Bias" الصادر عن منظمة اليونسكو (UNESCO, 2023)، فإن نماذج الذكاء الاصطناعي تعكس في مخرجاتها عدم التوازن القائم في بيانات التدريب، ما يُفضي إلى تعزيز السرديات المهيمنة وإقصاء الأصوات الأقل تمثيلًا.
تُظهر دراسة صادرة عن جامعة كامبريدج (2024) حول تحيّز الخوارزميات الإعلامية، أن هذه الأنظمة قد تُنتج ما يشبه المسار الحلزوني للمعلومات، حيث يتلقى المستخدم المحتوى نفسه في دوائر مغلقة دون منافذ بديلة، ما يعيد تشكيل الواقع وفق منطق حسابي لا يعكس الحقيقة الموضوعية بقدر ما يُعيد ترميزها داخل إطار ربحي موجه نحو جذب الانتباه أكثر من بناء الوعي.
بهذا المعنى، لا تقتصر الإشكالية على الجانب التقني فحسب، بل تمتد إلى بعد معرفي وفلسفي أعمق، يتمثل في سؤال جوهري: من يملك الوعي في زمن الذكاء الاصطناعي؟ ومن يملك الأكواد والمعادلات التي تُعيد صياغته ضمن فضاء رقمي لم تعد آلياته شفافة للمستخدم العادي؟
الوعي الزائف والمحتوى المصطنع
لا يقتصر الخطر في عصر الذكاء الاصطناعي على إعادة توجيه الوعي من خلال خوارزميات المحتوى، بل يمتد إلى إعادة تشكيل الثقة بالمعلومة نفسها. فقد أصبح الإنسان اليوم يواجه فيضًا غير مسبوق من المعلومات المولّدة آليًا، ما يحوّل عملية البحث عن الحقيقة إلى مهمة تتطلب تمييزًا متواصلًا بين الحقيقي والمصطنع.
وفقًا لتقرير Stanford Cyber Policy Center لعام 2024، تشكل تقنيات التزييف العميق (Deepfake) أحد أبرز التهديدات للمجال العام، إذ بات بالإمكان توليد صور ومقاطع فيديو وصوتيات لأشخاص حقيقيين تُنسب إليهم أقوال أو أفعال لم تصدر عنهم، بطريقة يصعب كشفها حتى بالتحليل الرقمي المتقدم.
كما حذّر المنتدى الاقتصادي العالمي (WEF) في تقرير المخاطر العالمية لعام 2024 من أن الذكاء الاصطناعي التوليدي سيصبح خلال السنوات القليلة المقبلة المصدر الرئيسي للمعلومات المضللة على الإنترنت، مؤكدًا أن هذا التطور قد يؤدي إلى تآكل الثقة في المؤسسات الإعلامية والسياسية.
في ضوء ذلك، لم يعد التحدي مرتبطًا فقط بتدفّق المعلومات، بل بكيفية الحفاظ على التمييز المعرفي والوعي النقدي في بيئة رقمية باتت تنتج واقعًا مصطنعًا يوازي بل ينافس الواقع الفعلي.
الفيديو الذي انتشر في 22 يوليو/تموز 2024 يُظهر شخصًا يشبه الرئيس الفلبيني فيرديناند ماركوس الابن، وهو يُستدل على تعاطيه مخدرات، وانتشر كخبر مثير للجدل على وسائل التواصل.
لا يقتصر هذا الانهيار في الثقة على المجال الإعلامي بل يمتد يشمل إعادة تشكيل الوعي الجمعي، إذ يعتاد الفرد على استهلاك محتوى عصي على التحقق، فيصبح عرضة لما يسميه غي دوبور "مجتمع المشهد" وهو مجتمع يختلط فيه المزيف بالواقعي وتضيع الصورة الحقيقية ويختفي الحد الفاصل بين التجربة وتمثيلها البصري (الرقمي في حالتنا). وعليه تُعاد صياغة واقع مصطنع تحدده خوارزميات و"أكواد" قادرة على إعادة رسم التاريخ وتشكيل الذاكرة الجمعية.
ومع تطور أدوات الذكاء الاصطناعي وتعاظم قدرتها عل توليد النصوص والصور ومقاطع الفيديو، فإننا ننتقل إلى مرحلة يحكمها الوعي الزائف المتقن الصنعة وسريع الانتشار، ما يجعله سهل التصديق والمداولة. لا يكمن الخطر الحقيقي اليوم في قدرة الذكاء الاصطناعي على خدعنا، بل في عجزنا وتخلينا عن محاولة التحقق، في تسليمنا وعينا كاملًا لخوارزميات تتفنن بالإقناع وتتسم بالغزارة.
الذكاء الاصطناعي كبديل للتفكير
لم يعد الذكاء الاصطناعي مجرد أداة مساعدة على التفكير، بل أصبح في كثير من الأحيان بديلًا خوارزميًا لعملية التفكير ذاتها. فالنماذج التوليدية، وتوصيات محركات البحث، وخوارزميات المنصات الاجتماعية، باتت تؤدي دورًا رئيسيًا في تشكيل آراء الأفراد وفهمهم للعالم واتخاذهم للقرارات اليومية. وبذلك انتقلت سلطة المعرفة من الدماغ البشري إلى منظومات رقمية تحدد، من خلال معادلاتها، ما يُعرض علينا وما يُخفى عنا.
يُنتج عن هذا التحول نمط جديد من الوعي الخارجي، حيث تُنقل عمليات التحليل والاختيار والذاكرة إلى بيئة رقمية توفر المعلومة بسرعة وسهولة، ما يقلل الحاجة إلى التفكير النقدي والتمحيص المستقل. ومع تزايد الاعتماد، تتراجع استقلالية الفرد الفكرية لصالح راحة ذهنية توفرها الخوارزميات.
لكن هذا النمط من الوعي يجعلنا أيضًا أكثر عرضة لـ التضليل الرقمي. فالمحتوى الذي تُولّده أنظمة الذكاء الاصطناعي ويُعاد ترتيبه عبر خوارزميات التوصية قد لا يعكس الواقع كما هو، بل يصوغه وفق منطق التفاعل والانتشار. وبهذا يصبح الذكاء الاصطناعي ربما دون قصد مباشر، جزءًا من آلية إنتاج وعي موجه، حيث يمتزج الحقيقي بالمضلل والمصنوع بالآلي، في مشهد تتراجع فيه الحدود بين المعرفة والتأثير.
في هذا السياق، لم يعد السؤال من يفكر نيابة عن من، بل كيف يمكننا الحفاظ على وعينا النقدي في بيئة تُنتج لنا باستمرار تصورات جاهزة عن العالم، بوساطة أنظمة تتعلم منا بقدر ما تُعيد تشكيلنا.
استعادة الوعي في زمن الخوارزميات
لقد تجاوز الذكاء الاصطناعي دوره كأداة مساعدة ليصبح فاعلًا ثقافيًا جديدًا يعيد تشكيل علاقتنا بالمعرفة والواقع. فخوارزمياته لا تكتفي بتيسير الوصول إلى المعلومات، بل تشارك في رسم نظرتنا إلى أنفسنا والعالم، وفي تحديد ما نقرأ ونشاهد وكيف نتفاعل مع الأحداث. ومع اتساع هذا الدور، يتقلّص المجال الذي يشغله الوعي الإنساني المستقل، لصالح أنظمة رقمية تجمع بياناتنا وتتعلم من سلوكنا لتوجّهنا بدقة متزايدة.
لا تكمن الإشكالية في "خطر" الذكاء الاصطناعي بحد ذاته، بل في تفويضه التفكير عنا. فحين نعهد إليه بالاختيار والتحليل واتخاذ القرار، يتحول من أداة إلى وسيط معرفي يتحكم تدريجيًا في طريقة إدراكنا للواقع. إن استعادة الوعي لا تتحقق بالانفصال عن التكنولوجيا، بل عبر امتلاك أدوات نقدية ومساءلة دائمة لما تقدمه هذه النماذج الذكية من معرفة وتوصيات. فالسؤال الأهم اليوم ليس ما الذي تستطيع الآلة فعله، بل إلى أي حدّ ما نعرفه ونفكر به هو فعلاً نتاج وعينا نحن، لا انعكاسًا لما فكرت به الخوارزميات من قبلنا.
اقرأ/ي أيضًا
التضليل الخوارزمي للأجور: كيف تخدعنا بيانات ناقصة وتقنيات متحيزة؟
خوارزميات مواقع التواصل: كيف تؤدي طريقتها في عرض الأخبار إلى المساهمة في نشر المحتوى المضلل؟





















