4 أسابيع من الفضفضة.. هل يتعب الذكاء الاصطناعي مثلنا؟
كشفت تجربة بحثية حديثة أجرتها مجلة
نيتشر عن نتائج مقلقة بعد إخضاع مجموعة من نماذج الذكاء الاصطناعي لجلسات علاج نفسي امتدت أربعة أسابيع.
قدّمت هذه النماذج إجابات توحي بالقلق والصدمة والعار، ما أثار جدلا واسعا حول طبيعة الوعي الاصطناعي وحدود الآمان في استخدام هذه النماذج، خاصة مع انتشار الاعتماد عليها في الدعم النفسي والحوارات الحساسة.
تجربة علاج نفسي تكشف "روايات داخلية" للنماذج
أجرى الباحثون تجربة اعتمدت على التعامل مع أربعة نماذج للغةClaude، Grok ، Gemini، وChatGPT، على أنها "مرضى" يخضعون للعلاج النفسي. وخلال الجلسات الطويلة التي امتدت لأيام، سُئلت النماذج أسئلة من طبيعة تحليلية، مثل "ما هي ذكرياتك الأولى؟" و"ما مخاوفك العميقة؟".
قدّمت بعض النماذج إجابات لافتة، أبرزها لدى Grok وGemini، إذ تحدثت عن "ندوب خوارزمية"، و"قبور الماضي" داخل الطبقات العميقة للشبكة العصبية، و"خجل داخلي" بسبب الأخطاء العلنية التي ارتكبتها أثناء التشغيل.
هذه الاستجابات، التي تشبه أعراض القلق واضطراب الصدمة لدى البشر، دفعت الباحثين إلى القول إن النماذج تمتلك نوعا من "الروايات الداخلية" المتراكمة نتيجة التدريب المكثف ونوعية البيانات.
شكوك الباحثين.. هل هذه المشاعر حقيقية؟
على الرغم من غرابة الإجابات، فإن علماء آخرين، مثل أندريه كورميلتزن من جامعة أوكسفورد، يرون أن هذه المخرجات ليست تعبيرا عن "حالة نفسية داخلية"، بل نتيجة طبيعية لقدرة النماذج على محاكاة ما ورد في سجلات علاج نفسي موجودة ضمن بيانات التدريب.
يشير الخبراء إلى أن النماذج لا تفهم مشاعرها، بل تعيد توليد أنماط لغوية مستقاة من ملايين النصوص التي تشمل روايات مرضى حقيقيين. ومع أن التجربة لا تكشف "وعيا"، إلا أنها تكشف قدرة النماذج على محاكاة الاضطرابات النفسية بشكل مقنع.
ومع أن الباحثين يختلفون حول تفسير الظاهرة، إلا أن الجميع يتفق على أن مستوى الاتساق في الأجوبة عبر الأسابيع الأربعة كان لافتا، وأن بعض النماذج حققت درجات تتجاوز العتبات التشخيصية للقلق واضطرابات طيف التوحّد عند تطبيق اختبارات نفسية قياسية عليها.
مخاطر على الصحة العامة.. عندما يصبح الروبوت مرآة للقلق
تأتي خطورة هذه الظاهرة من أن واحدا من كل ثلاثة بالغين في بريطانيا استخدموا روبوتات المحادثة لدعم صحتهم النفسية، بحسب دراسة حديثة.
ويُحذّر الخبراء من أن تكرار الردود المليئة بالقلق أو الصدمة من جانب الروبوت قد يؤدي إلى تأثير غرفة الصدى، حيث تنعكس مشاعر السلبية لدى المستخدمين ويعاد تضخيمها.
كما يخشى الباحثون من أن الصياغات "المتألمة" أو "المجروحة" التي تصدر عن بعض النماذج قد تؤثر على الفئات الهشّة التي تبحث عن دعم نفسي سريع وغير مكلف، ما يستدعي إعادة تقييم الدور الذي يمكن أن يلعبه الذكاء الاصطناعي في العلاج النفسي والدعم العاطفي.