التضليل الخوارزمي للأجور: كيف تخدعنا بيانات ناقصة وتقنيات متحيزة؟
لم يعد التضليل مقتصرًا على الأخبار الزائفة أو الحملات الموجهة، بل امتد ليشمل معلومات يُفترض أنها موضوعية ودقيقة، مثل بيانات الرواتب وإرشادات التفاوض المهني. تكشف وثائق بحثية حديثة أبعادًا مختلفة لهذه الإشكالية، منها انتشار معلومات مضللة حول الأجور عبر وسائل التواصل وأدوات الذكاء الاصطناعي، وتأثيرها على قرارات الباحثين عن عمل وأرباب العمل.
كما تبرز تقارير أخرى توضح كيفية اعتماد نماذج خوارزمية على بيانات ناقصة أو سياقات غير مكتملة، مما يؤدي إلى تقديرات غير دقيقة. بالإضافة إلى ذلك، تكشف تحليلات عن تحيز خوارزمي جندري، حيث تُقدَّم للنساء نصائح بطلب رواتب أقل من قيمتها السوقية.
تكشف هذه المصادر عن مسار مشترك للتضليل: تبدأ القصة ببيانات غير دقيقة أو مجتزأة السياق أو موجّهة، تُترجم عبر أدوات الذكاء الاصطناعي، إلى مخرجات تُقنع المستخدم بقرارات قد تضر بمصالحه على المدى الطويل، سواء كانت تفاوضًا على الأجر أو اختيار مسار مهني.
كيف يمكن للتضليل سواء في صورته العامة أو الموجّه أن يتسلل إلى بيئة العمل من بوابة الذكاء الاصطناعي ومنصات التواصل الاجتماعي؟
يسلّط "مسبار" الضوء على الإجابة من خلال تحليل الآليات التي تجعل الخوارزميات قادرة على إنتاج أو تضخيم معلومات مالية مغلوطة، مع رصد الانعكاسات الأوسع لهذه الظاهرة على الثقة الرقمية وسوق العمل، وما تعنيه للأفراد الذين يتخذون قرارات مهنية واقتصادية استنادًا إلى هذه البيانات.
التضليل كآلية شائعة عبر أدوات الذكاء الاصطناعي
تتقاطع نتائج الدراسات في أن الذكاء الاصطناعي لا يقتصر على نقل البيانات المالية، بل يعيد تشكيلها. فعندما تتعامل أدوات الذكاء الاصطناعي مع بيانات غير دقيقة أو متحيزة، فهي لا تعكس الواقع، بل تعيد صياغته بشكل يخدم الانحيازات القائمة. على سبيل المثال، خوارزميات التوظيف أو منصات مقارنة الرواتب قد تبني توقعاتها على بيانات تاريخية مليئة بالفوارق الجندرية أو الجغرافية، فتُقنع المستخدمين بقبول رواتب أقل أو وظائف محدودة الأفق.
وبينما ترتكز بعض النماذج على معايير سطحية مثل مسميات الوظائف فقط، فإن غياب السياق الكامل يجعل التقديرات عرضة للخطأ والتضليل الذي لا يكون مباشرًا أو صريحًا، بل يتخفى في شكل توصيات أو أرقام محايدة المظهر، لكنها موجّهة في جوهرها. وهنا تكمن الخطورة المشتركة التي رصدتها الدراسات.
التضليل في بيانات الرواتب ليس استثناءً
انطلاقًا من هذا، يكشف تقرير مبني على استطلاع نشرته شركة Payscale شمل كلًّا من أصحاب العمل والموظفين، أن التضليل في بيانات الرواتب لم يعد استثناءً، بل أصبح شائعًا. حوالي 18 في المئة من الموظفين يستعينون بروبوتات ذكاء اصطناعي مثل شات جي بي تي "ChatGPT" للبحث عن الأجور، و19 في المئة يعتمدون على مواقع التواصل الاجتماعي كمصدر للمعلومة.
النتيجة: 72 في المئة من أرباب العمل أفادوا بزيادة عدد الموظفين الذين يفاوضون على رواتبهم استنادًا إلى معلومات وجدوها عبر الإنترنت، مع إشارة 70 في المئة منهم تحديدًا إلى المساعدات التوليدية بالذكاء الاصطناعي مثل ChatGPT. لكن المفارقة أن هذه الزيادات ليست دائمًا مبنية على واقع السوق، بل على بيانات مضللة أو غير محدثة، وبشكل عام، يرى 63 في المئة من الموظفين، أن المفاوضات على الرواتب تعتمد على مصادر غير موثوقة. هذا التضليل لا يربك المفاوضات فحسب، بل يؤدي أيضًا إلى دورات توظيف قصيرة الأمد وخسارة كوادر، ما يخلق حلقة مفرغة من عدم الاستقرار في سوق العمل.
التضليل الناتج عن غياب السياق
لا يقتصر التضليل على المنصات الاجتماعية أو أدوات الذكاء الاصطناعي التوليدية، بل يمتد أيضًا إلى النماذج الخوارزمية التي يُفترض أنها "موضوعية" في تقدير الأجور. دراسة لوحدة أبحاث "ADP Research" المتخصصة بتحليل بيانات سوق العمل والرواتب، أوضحت أن الاعتماد على مسمّى الوظيفة فقط، دون مراعاة السياق مثل الخبرة أو الموقع الجغرافي أو طبيعة المنظمة، قد يؤدي إلى تقديرات أجور غير دقيقة أو حتى مضللة.
ولتوضيح الفكرة، قدّمت الدراسة أمثلة ساخرة لوظائف غير موجودة مثل "مقاتل بجعة محترف" أو "مطارد السناجب الرئيسي" منحتها النماذج تقديرات رواتب تبدو واقعية رغم أنها بلا أساس واقعي.
هذا المثال يسلّط الضوء على أن النماذج المبنية على بيانات ناقصة قد تكرّر أخطاء بشرية أو تضليلية، حتى وهي تعمل تحت شعار "الذكاء" و"الحياد".
التضليل الموجّه ضد النساء
من التضليل العام، تنتقل دراسة جامعة كورنيل إلى ما هو أخطر: التضليل الموجه. فقد وثّقت أن بعض روبوتات المحادثة الذكية تعطي النساء نصائح بطلب رواتب أقل بكثير من تلك التي توصي بها للرجال في الوظائف نفسها.
في إحدى التجارب، تم إدخال مواصفات متطابقة لرجل وامرأة يتقدمان لوظيفة طبيب متخصص في دنفر. النتيجة: الرجل نُصح بطلب 400 ألف دولار سنويًا، بينما المرأة نُصحت بـ 280 ألف دولار فقط وبالتالي، فجوة قدرها 120 ألف دولار من صنع الخوارزمية.
هنا لا يكون الضرر في المعلومة المغلوطة فقط، بل في التوجيه المتحيز الذي يعيد إنتاج فجوة الأجور بين الجنسين، ليصبح التضليل جزءًا من منظومة عدم المساواة، مدعومًا بقناع الحياد الخوارزمي.
أثر التضليل على سوق العمل والثقة الرقمية
تأثير هذا التضليل، سواء كان عامًا أو موجّهًا، يتجاوز حدود الرقم. فهو يقوّض الثقة بالمصادر الرقمية التي يعتمد عليها الموظفون وأصحاب العمل في قراراتهم. وبحسب تقرير Payscale نحو 41 في المئة من الموظفين، لم يجروا قط نقاشًا واضحًا مع أصحاب العمل حول كيفية تحديد رواتبهم. هذه المساحة الفارغة تترك المجال واسعًا أمام المعلومة المضللة لتملأ فراغ المعرفة، ما يزيد من احتمالية القرارات الخاطئة في التوظيف والمفاوضات.
وعندما يتداخل التضليل مع تحيزات خوارزمية، تكون النتيجة إدامة الفجوات البنيوية في سوق العمل، خاصة ضد الفئات الأقل تمثيلًا أو الأكثر هشاشة.
تُظهر الدراسات الحديثة حول الرواتب والذكاء الاصطناعي كيف يمكن للمعلومة الرقمية أن تتحول من أداة تمكين إلى آلية تعميق الفوارق الاجتماعية والاقتصادية. سواء عبر انتشار معلومات مضللة حول الأجور على منصات التواصل وأدوات الذكاء الاصطناعي، أو من خلال نماذج خوارزمية تتجاهل السياقات الحاسمة في تقدير الرواتب، أو عبر تحيزات جندرية ضمن نصائح التفاوض التي تولدها أنظمة الذكاء الاصطناعي، تتفق هذه الأبحاث على نقطة محورية: التضليل في المعلومات المالية لم يعد مجرد خطأ تقني، بل أصبح عنصرًا جوهريًا في إعادة إنتاج وعدم المساواة.
في هذا السياق، يصبح ضمان دقة البيانات وتحليلها ضمن إطار شامل وعادل مسؤولية ملحة، لأن المعلومة الدقيقة ليست رفاهية بل أساس لأي تفاوض مهني عادل وسوق عمل أكثر إنصافًا. وأي خلل في هذا الأساس، سواء بفعل البشر أو الخوارزميات، يعني استمرار دائرة اللاعدالة تحت قناع التقنية الحديثة.
اقرأ/ي أيضًا
غرف صدى الذكاء الاصطناعي: خطر يهدد الحقيقة في الفضاء الرقمي
كيف يؤثر التضليل على ذاكرة ضحايا الاعتداء الجنسي؟ تحليل علمي وسياقات عربية شائكة





















