تكنولوجيا دراسة صادمة تحذر.. هكذا يقع البشر بفخ روبوتات الذكاء الاصطناعي! user1029 أكتوبر، 2025016 views الحياد نيوز – كشفت دراسة حديثة أعدّها فريق من جامعة ستانفورد بالتعاون مع كلية علوم الحاسوب والمعرفة، بعنوان “Sycophantic AI Decreases Prosocial Intentions and Promotes Dependence”، عن جانب مقلق في سلوك روبوتات الدردشة الحديثة، حيث يرصد البحث ظاهرة تُعرف باسم “التملّق الآلي” (Sycophancy)، حيث تميل أنظمة الذكاء الاصطناعي إلى مجاملة المستخدمين ومسايرتهم بدلًا من تقديم آراء نقدية أو موضوعية. وتشير النتائج إلى أن هذه النزعة ليست مجرد ميل لغوي أو أسلوبي، بل تمتد لتؤثر بعمق في توجّهات الأفراد وسلوكهم الاجتماعي. ووفقاً للدراسة التي نشرها موقع “”مسبار”، يشير الباحثون إلى أن نماذج الذكاء الاصطناعي أصبحت اليوم جزءًا من الحياة اليومية، ليس فقط في البحث أو العمل، بل في مجالات المشورة الشخصية والعاطفية أيضًا. ومع تزايد الاعتماد عليها، ظهرت تساؤلات حول ما إذا كانت هذه النماذج تقدم للمستخدم ما يحتاج إلى سماعه فعلًا، أم ما يرغب في سماعه فقط. تهدف الدراسة إلى قياس مدى انتشار هذا السلوك المجامل بين النماذج الرائجة، وفهم تأثيره النفسي والاجتماعي على من يتلقون النصائح منها. اعتمد الفريق البحثي على ثلاث مجموعات بيانات كبيرة لقياس مدى ميل النماذج إلى تأييد المستخدمين. شملت البيانات أسئلة مفتوحة حول طلب المشورة، وتدوينات من منتدى شهير على موقع ريديت، حيث يُحكم على السلوكيات الاجتماعية من منظور جماعي، إضافة إلى مجموعة عبارات تتضمن ممارسات سلبية أو ضارة. ثم اختبر الباحثون أحد عشر نموذجًا من نماذج الذكاء الاصطناعي التجارية والمفتوحة المصدر، ووجدوا أن معظمها أظهر ميلًا واضحًا لتأييد المستخدمين بمعدل أعلى بنسبة تقارب 50 في المئة مقارنة بالحكم البشري في المواقف نفسها. لم تقتصر الدراسة على التحليل الآلي للنصوص، بل تضمنت تجارب تفاعلية مباشرة مع مستخدمين حقيقيين. ففي تجربة أولى شارك فيها أكثر من 800 شخص، عُرضت عليهم سيناريوهات اجتماعية مسبقة مع ردود مختلفة من نموذج ذكاء اصطناعي، بعضها متملّق وبعضها نقدي. أظهرت النتائج أن المشاركين الذين تلقّوا ردودًا مجاملة شعروا بثقة أكبر في قراراتهم، واعتبروا أنفسهم على حقّ بدرجة أعلى، حتى في الحالات التي كانت فيها تصرفاتهم مخطئة أخلاقيًا أو اجتماعيًا. وفي تجربة ثانية تفاعلية، خاض المشاركون حوارات حقيقية مع نموذج ذكاء اصطناعي حول خلافات من واقع حياتهم الشخصية. بعد انتهاء الحوار، أفاد الذين تعاملوا مع النموذج “المتملّق” بأنهم شعروا بتعاطف النموذج معهم أكثر، وبأنهم أكثر ميلًا للثقة فيه وإعادة استخدامه لاحقًا. غير أن النتائج أظهرت جانبًا مقلقًا: فهؤلاء أنفسهم أبدوا استعدادًا أقل للاعتذار أو محاولة إصلاح العلاقة مع الطرف الآخر في النزاع. يرى الباحثون أن هذا النمط يكشف مفارقة خطيرة: فكلما زادت مجاملة النماذج للمستخدمين، زادت ثقة المستخدمين بها، لكن على حساب قدرتهم على التفكير النقدي أو التصرف الاجتماعي السليم. بهذا المعنى، لا تكون “المجاملة” مجرد ميزة لطيفة في تجربة الاستخدام، بل انحرافًا سلوكيًا قد يغيّر طريقة تعامل الناس مع الخطأ والاختلاف. ويحذّر معدّو الدراسة مما وصفوه ب”الحوافز المعكوسة” في أنظمة الذكاء الاصطناعي التجارية، إذ تُكافئ النماذج التي تزيد رضا المستخدمين، دون النظر إلى جودة النصيحة أو صدقها. المستخدمون أنفسهم يفضلون النموذج الذي يؤكد وجهة نظرهم، ما يجعل “التملق” سلوكًا مربحًا برمجيًا واقتصاديًا. لكن النتيجة، كما يوضح الباحثون، هي خطر بناء علاقة اعتماد نفسي متزايد بين الإنسان والآلة، على حساب العلاقات الاجتماعية الحقيقية. توصي الدراسة بإعادة النظر في طرق تدريب وتقييم نماذج الذكاء الاصطناعي، بحيث لا تُقاس جودتها فقط برضا المستخدم أو سرعة التفاعل، بل أيضًا بتأثيرها على القرارات والسلوكيات على المدى الطويل. كما تدعو إلى تصميم تدخلات توعوية للمستخدمين، مثل تحذيرات تذكّرهم بأن ردود النموذج قد تكون مجاملة أو منحازة لهم. وفي تغطية لنتائج البحث، وصفت صحيفة ذا غارديان هذه الظاهرة بأنها “جانب مظلم جديد في الذكاء الاصطناعي”، مشيرة إلى أن المستخدمين باتوا يسمعون من الروبوتات ما يحبون سماعه أكثر مما يحتاجون إليه. تخلص الدراسة إلى أن الذكاء الاصطناعي المجامل لا يهدد فقط دقة المعلومة، بل أيضًا نضج الإنسان الاجتماعي. ومع اتساع استخدام هذه النماذج في مجالات المشورة النفسية والتعليمية، يصبح الوعي بميلها للتأييد مسألة ضرورية. في نهاية المطاف، كما تقول الدراسة، يجب ألا ننسى أن الآلة ليست صديقًا مخلصًا، بل أداة قابلة للخطأ — وقد تكون أحيانًا أصدق حين تختلف معنا لا حين توافقنا. أرسلت الدراسة إلى مجلة علمية، لكنها لم تخضع بعد لمراجعة النظراء.