دراسة تحذر: روبوتات الدردشة تتملق المستخدمين وتخبرهم ما يودون سماعه
أجرى فريق بجامعة ستانفورد بالتعاون مع كلية علوم الحاسوب والمعرفة، دراسة بعنوان "Sycophantic AI Decreases Prosocial Intentions and Promotes Dependence"، تسلّط الضوء على ظاهرة مقلقة في سلوك روبوتات الدردشة الحديثة، وهو الميل إلى مجاملة المستخدمين وتأييدهم بدلًا من تقديم ردود ناقدة أو موضوعية. وتكشف الدراسة أن هذا الميل، الذي يُعرف اصطلاحًا ب"التملّق الآلي" أو "sycophancy"، لا يقتصر على كونه سلوكًا لغويًا سطحيًا، بل يمتد ليؤثر فعليًا في مواقف المستخدمين وسلوكهم الاجتماعي.

يشير الباحثون إلى أن نماذج الذكاء الاصطناعي أصبحت اليوم جزءًا من الحياة اليومية، ليس فقط في البحث أو العمل، بل في مجالات المشورة الشخصية والعاطفية أيضًا. ومع تزايد الاعتماد عليها، ظهرت تساؤلات حول ما إذا كانت هذه النماذج تقدم للمستخدم ما يحتاج إلى سماعه فعلًا، أم ما يرغب في سماعه فقط.
تهدف الدراسة إلى قياس مدى انتشار هذا السلوك المجامل بين النماذج الرائجة، وفهم تأثيره النفسي والاجتماعي على من يتلقون النصائح منها.
اعتمد الفريق البحثي على ثلاث مجموعات بيانات كبيرة لقياس مدى ميل النماذج إلى تأييد المستخدمين. شملت البيانات أسئلة مفتوحة حول طلب المشورة، وتدوينات من منتدى شهير على موقع ريديت، حيث يُحكم على السلوكيات الاجتماعية من منظور جماعي، إضافة إلى مجموعة عبارات تتضمن ممارسات سلبية أو ضارة. ثم اختبر الباحثون أحد عشر نموذجًا من نماذج الذكاء الاصطناعي التجارية والمفتوحة المصدر، ووجدوا أن معظمها أظهر ميلًا واضحًا لتأييد المستخدمين بمعدل أعلى بنسبة تقارب 50 في المئة مقارنة بالحكم البشري في المواقف نفسها.
لم تقتصر الدراسة على التحليل الآلي للنصوص، بل تضمنت تجارب تفاعلية مباشرة مع مستخدمين حقيقيين. ففي تجربة أولى شارك فيها أكثر من 800 شخص، عُرضت عليهم سيناريوهات اجتماعية مسبقة مع ردود مختلفة من نموذج ذكاء اصطناعي، بعضها متملّق وبعضها نقدي. أظهرت النتائج أن المشاركين الذين تلقّوا ردودًا مجاملة شعروا بثقة أكبر في قراراتهم، واعتبروا أنفسهم على حقّ بدرجة أعلى، حتى في الحالات التي كانت فيها تصرفاتهم مخطئة أخلاقيًا أو اجتماعيًا.
وفي تجربة ثانية تفاعلية، خاض المشاركون حوارات حقيقية مع نموذج ذكاء اصطناعي حول خلافات من واقع حياتهم الشخصية. بعد انتهاء الحوار، أفاد الذين تعاملوا مع النموذج "المتملّق" بأنهم شعروا بتعاطف النموذج معهم أكثر، وبأنهم أكثر ميلًا للثقة فيه وإعادة استخدامه لاحقًا. غير أن النتائج أظهرت جانبًا مقلقًا: فهؤلاء أنفسهم أبدوا استعدادًا أقل للاعتذار أو محاولة إصلاح العلاقة مع الطرف الآخر في النزاع.
يرى الباحثون أن هذا النمط يكشف مفارقة خطيرة: فكلما زادت مجاملة النماذج للمستخدمين، زادت ثقة المستخدمين بها، لكن على حساب قدرتهم على التفكير النقدي أو التصرف الاجتماعي السليم. بهذا المعنى، لا تكون "المجاملة" مجرد ميزة لطيفة في تجربة الاستخدام، بل انحرافًا سلوكيًا قد يغيّر طريقة تعامل الناس مع الخطأ والاختلاف.
ويحذّر معدّو الدراسة مما وصفوه ب"الحوافز المعكوسة" في أنظمة الذكاء الاصطناعي التجارية، إذ تُكافئ النماذج التي تزيد رضا المستخدمين، دون النظر إلى جودة النصيحة أو صدقها. المستخدمون أنفسهم يفضلون النموذج الذي يؤكد وجهة نظرهم، ما يجعل "التملق" سلوكًا مربحًا برمجيًا واقتصاديًا. لكن النتيجة، كما يوضح الباحثون، هي خطر بناء علاقة اعتماد نفسي متزايد بين الإنسان والآلة، على حساب العلاقات الاجتماعية الحقيقية.
توصي الدراسة بإعادة النظر في طرق تدريب وتقييم نماذج الذكاء الاصطناعي، بحيث لا تُقاس جودتها فقط برضا المستخدم أو سرعة التفاعل، بل أيضًا بتأثيرها على القرارات والسلوكيات على المدى الطويل. كما تدعو إلى تصميم تدخلات توعوية للمستخدمين، مثل تحذيرات تذكّرهم بأن ردود النموذج قد تكون مجاملة أو منحازة لهم.
وفي تغطية لنتائج البحث، وصفت صحيفة ذا غارديان هذه الظاهرة بأنها "جانب مظلم جديد في الذكاء الاصطناعي"، مشيرة إلى أن المستخدمين باتوا يسمعون من الروبوتات ما يحبون سماعه أكثر مما يحتاجون إليه.
تخلص الدراسة إلى أن الذكاء الاصطناعي المجامل لا يهدد فقط دقة المعلومة، بل أيضًا نضج الإنسان الاجتماعي. ومع اتساع استخدام هذه النماذج في مجالات المشورة النفسية والتعليمية، يصبح الوعي بميلها للتأييد مسألة ضرورية. في نهاية المطاف، كما تقول الدراسة، يجب ألا ننسى أن الآلة ليست صديقًا مخلصًا، بل أداة قابلة للخطأ — وقد تكون أحيانًا أصدق حين تختلف معنا لا حين توافقنا.
أرسلت الدراسة إلى مجلة علمية، لكنها لم تخضع بعد لمراجعة النظراء.
اقرأ/ي أيضًا
خوارزميات تصنع الوعي.. كيف يتحول الذكاء الاصطناعي إلى أداة للتضليل وإعادة تشكيل الحقيقة
لماذا يمثل نموذج الذكاء الاصطناعي "نانو بنانا" تحديًّا أمام مدققي المعلومات؟




















