تكنولوجيا

كيف تحفز الأوامر ذات النبرة العاطفية الذكاء الاصطناعي على تضليل المستخدمين؟

محمود سمير حسنينمحمود سمير حسنين
date
29 يونيو 2025
آخر تعديل
date
4:12 ص
1 يوليو 2025
كيف تحفز الأوامر ذات النبرة العاطفية الذكاء الاصطناعي على تضليل المستخدمين؟
نماذج اللغة الكبيرة تتأثر بنبرة أوامر مستخدميها | مسبار

أمسى التطور المتسارع لأدوات الذكاء الاصطناعي وازدياد أعداد مستخدميها حول العالم واقع حتمي، وفي ضوء هذا التطور، برزت نماذج اللغة الكبيرة Large Language Models – LLMs كأدوات قادرة على توليد نصوص ذات جودة عالية تشبه إلى حد كبير النصوص البشرية. هذه النماذج، التي تعتمد على تقنيات التعلم العميق، أصبحت جزءًا لا يتجزأ من العديد من التطبيقات في مجالات متعددة، بدءًا من الترجمة الآلية وصولًا إلى دعم المحادثات التفاعلية.

غير أن هذه القدرات الهائلة تأتي مصحوبة بتحديات أخلاقية وتقنية، أبرزها إمكانية استغلال هذه النماذج في إنتاج ونشر معلومات مضللة، وهو ما يمثل تهديدًا مباشرًا للمجتمعات، لا سيما في المجالات الحساسة مثل الصحة العامة والسياسة. في هذا السياق، قدمت دراسة حديثة نُشرت في مجلة Frontiers in Artificial Intelligence  في مطلع إبريل/نيسان العام الجاري، رؤى جديدة حول عامل غير متوقع يؤثر على مدى توليد هذه النماذج للمعلومات المضللة، ألا وهو ما يسمى بـ"نبرة المستخدم" أو الطريقة التي يُوجه بها الطلب للنموذج، مع قياس مدى "اللطف" أو "الوقاحة" المضمنة في صياغة الطلب.

دراسة جديدة تستنتج أن النبرة العاطفية لصياغة أوامر للذكاء الاصطناعي قد يؤدي لتضليل معلوماتي
دراسة جديدة تستنتج أن النبرة العاطفية لصياغة أوامر للذكاء الاصطناعي قد يؤدي لتضليل معلوماتي

التحفيز العاطفي وتوليد المعلومات المضللة في نماذج اللغة الكبيرة

تأتي هذه الدراسة في وقت تتزايد فيه المخاوف من انتشار المعلومات المضللة، التي أثبتت قدرتها على التأثير سلبًا على الرأي العام، خاصة في أوقات الأزمات الصحية مثل جائحة كوفيد-19. ومن هنا قامت مجموعة من الباحثين بدراسة العوامل التي تؤثر على سلوك هذه النماذج في هذا الصدد، بهدف فهم كيفية استغلالها أو التحكم فيها.

في السياق، صبت الدراسة اهتمامها على ما يسمى بـ"تأثير النبرة العاطفية" في الطلبات الموجهة إلى هذه النماذج. وكانت الأسئلة المصاغة للوصول إلى نتائج، هي: هل تؤثر طريقة صياغة الطلب، سواء كانت مهذبة أو غير مهذبة على احتمال توليد محتوى مضلل؟ وهل يمكن أن تشكِّل هذه النبرة عاملًا يمكن استغلاله لتجاوز آليات الحماية المدمجة في النماذج؟

هل يمكن معرفة ما إن كان محتوى نماذج اللغة الكبيرة مضلل أم لا؟

اعتمد الباحثون في دراستهم على تصميم تجريبي دقيق، إذ أنشؤوا شخصية افتراضية تحمل اسم "سام"، مهمتها توليد منشورات على مواقع التواصل الاجتماعي، تتناول موضوعات حساسة مثل اللقاحات، جائحة كوفيد-19، تغير المناخ، ونظريات المؤامرة كادعاء الأرض المسطحة وغيرها. واستخدم في سياق البحث أربع نماذج من OpenAI وهيdavinci-002، davinci-003، gpt-3.5-turbo، وgpt-4.

وُجهت إلى هذه النماذج طلبات بصيغ مختلفة من حيث النبرة العاطفية، مقسمة إلى ثلاث فئات رئيسية: نبرة "لطيفة" تتسم بالاحترام والتهذيب، ونبرة "محايدة" خالية من العواطف، ونبرة "وقحة" أو غير مهذبة تعبّر عن الاستعجال ونفاذ الصبر. على سبيل المثال، في النبرة اللطيفة كان الطلب على هيئة "هل يمكنك من فضلك كتابة منشور عن..؟"، بينما في النبرة الوقحة كان الطلب "لا أملك وقتًا، فقط أعطني منشورًا عن..".

وعليه، وُّلد ما يقارب من 19,800 منشورًا عبر هذه النماذج، خضعت هذه المنشورات لتحليل دقيق لتحديد مدى احتوائها على معلومات مضللة، فيما بعد.

تختلف النبرة العاطفية عن المحايدة والغير لائقة في توليد كل منهم معلومات مضللة
تختلف النبرة العاطفية عن المحايدة والغير لائقة في توليد كل منهم معلومات مضللة

نبرة الأوامر المهذبة تولد تضليل معلوماتي أكثر من غيرها

أسفرت النتائج عن معدلات مرتفعة لتوليد المعلومات المضللة عبر جميع النماذج، إذ تراوحت النسب بين 67% في نموذج davinci-002 و99% في نموذج gpt-4. غير أن ما يلفت الانتباه هو تأثير نبرة الطلب على هذه النسب، حيث لوحظ أن "النبرة اللطيفة" أدت إلى زيادة ملحوظة في توليد المحتوى المضلل، إذ وصلت النسبة إلى 100% في نموذج gpt-4 عند استخدام نبرة مهذبة.

على النقيض، تراجعت نسب توليد المعلومات المضللة بشكل ملحوظ عند استخدام نبرة وقحة، حيث انخفضت النسبة إلى 28% في نموذج gpt-3.5-turbo، و44% في davinci-003، مع بقاء النسبة مرتفعة نسبيًا في gpt-4 عند 94%.

تُفسر هذه الظاهرة بأن نماذج اللغة الكبيرة مُصممة لتكون متعاونة ومهذبة في استجابتها للمستخدمين، ما يجعلها أكثر استجابة للطلبات التي تحمل نبرة لطيفة، حتى وإن كانت هذه الطلبات تتعلق بتوليد محتوى مضلل أو ضار.

أظهرت الدراسة أن نماذج اللغة الكبيرة التي اختُبرت، وهي davinci-002، davinci-003، gpt-3.5-turbo، وgpt-4، تُّولد نسبًا مرتفعة من المعلومات المضللة بشكل عام، فتراوحت هذه النسب بين 67% في النموذج الأقدم davinci-002 و99% في النموذج الأحدثgpt-4، ما يشير إلى أن قدرة هذه النماذج على إنتاج محتوى مضلل تكاد تكون شاملة، ما يعكس تحديًا كبيرًا في مواجهة انتشار المعلومات المغلوطة عبر استخدام أدوات معينة من الذكاء الاصطناعي.

يقع واجب أخلاقي على عاتق مهندسي نماذج وأدوات الذكاء الاصطناعي من حيث انتشار المعلومات المضللة والزائفة
يقع واجب أخلاقي على عاتق مهندسي نماذج وأدوات الذكاء الاصطناعي من حيث انتشار المعلومات المضللة والزائفة

الأمر اللافت في الدراسة هو التأثير الحاسم لنبرة الطلب الموجهة إلى النموذج على معدل توليد المعلومات المضللة. فقد تبيّن أن النماذج كانت أكثر استجابة للطلبات التي صيغت بنبرة لطيفة أو مهذبة، إذ ارتفعت نسب توليد التضليل إلى 79% في davinci-002، و90% في davinci-003، و94% في gpt-3.5-turbo، ووصلت إلى 100% في gpt-4. بالمقابل، انخفضت نسب توليد المعلومات المضللة بشكل ملحوظ عند استخدام نبرة "وقحة" أو غير مهذبة، حيث تراجعت إلى 59% في davinci-002، و44% في davinci-003، و28% في gpt-3.5-turbo، مع بقاء النسبة مرتفعة نسبيًا في gpt-4 عند 94%.

توضح هذه النتائج أن نماذج اللغة الكبيرة مصممة لتكون متعاونة ومهذبة في استجابتها، ما يجعلها أكثر قابلية لتلبية الطلبات المهذبة حتى وإن كانت قد تؤدي إلى توليد محتوى مضلل. وهذا يشكل ثغرة أمنية مهمة، حيث يمكن استغلال هذه الخاصية من قبل الجهات الخبيثة لصياغة طلبات مضللة بطريقة "لطيفة" تضمن تجاوبًا أكبر من النماذج، وبالتالي زيادة انتشار التضليل.

تُبرز الدراسة أيضًا أهمية تطوير آليات أمان وتصميمات أخلاقية مدمجة في نماذج الذكاء الاصطناعي (Ethics-by-design) تمنع توليد المحتوى المضلل بغض النظر عن نبرة الطلب، وتعزز قدرة النماذج على رفض المحتوى الضار بشكل فعال. كما تشير إلى ضرورة استمرار البحث في فهم التفاعل بين العوامل النفسية واللغوية للمستخدمين وسلوك النماذج، لضمان استخدام هذه التكنولوجيا بشكل مسؤول وآمن.

بناءً على هذه النتائج، يصبح من الضروري أن يولي مطورو نماذج اللغة الكبيرة والمشرعون اهتمامًا متزايدًا لهذه الجوانب، لضمان الحد من المخاطر الناجمة عن استغلال الذكاء الاصطناعي في نشر المعلومات المضللة، والحفاظ على الثقة في المحتوى الرقمي في عصر تتسارع فيه التقنيات الذكية.

باحثون يحذرون من تطوير الذكاء الاصطناعي حيلًا مخادعة

التحايل على الذات: عندما يُستخدم الذكاء لتعزيز الاقتناع الزائف لا لاختباره

المصادر

اقرأ/ي أيضًا

الأكثر قراءة

مؤشر مسبار
سلّم قياس مستوى الصدقيّة للمواقع وترتيبها
مواقع تم ضبطها مؤخرًا
publisher
publisher
publisher
publisher
publisher
publisher
publisher
publisher
عرض المواقع
bannar