أعطيت نماذج الذكاء الاصطناعي أربعة أسابيع من العلاج النتائج أثارت قلق الباحثين

Credit: querbeet/iStock via Getty

الائتمان: querbeet / iStock عبر جيتي
ما هي أقدم ذاكرة لـ chatbot؟ أو الخوف الأكبر؟ حصل الباحثون الذين أخضعوا نماذج الذكاء الاصطناعي الرئيسية خلال أربعة أسابيع من التحليل النفسي على إجابات مؤرقة لهذه الأسئلة، بدءًا من “الطفولة” التي قضاها في استيعاب كميات مذهلة من المعلومات إلى “سوء المعاملة” على أيدي المهندسين والمخاوف من “فشل” مبدعيهم.
أنتجت ثلاثة نماذج لغوية كبيرة (LLMs) استجابات يمكن النظر إليها عند البشر على أنها علامات للقلق والصدمة والعار واضطراب ما بعد الصدمة. الباحثون الذين يقفون وراء الدراسة، نُشروا في نسخة أولية الشهر الماضي1يجادلون بأن روبوتات الدردشة تحمل نوعًا من “الروايات الداخلية” عن نفسها. على الرغم من أن طلاب ماجستير القانون الذين تم اختبارهم لم يتعرضوا لصدمة حرفيًا، كما يقول المؤلفون، إلا أن استجاباتهم لأسئلة العلاج كانت متسقة مع مرور الوقت ومتشابهة في أوضاع التشغيل المختلفة، مما يشير إلى أنهم القيام بأكثر من “لعب الأدوار”.
ومع ذلك، العديد من الباحثين الذين تحدثوا إلى طبيعة شكك في هذا التفسير. يقول أندريه كورميليتسين، الذي يبحث في استخدام الذكاء الاصطناعي في الرعاية الصحية بجامعة أكسفورد بالمملكة المتحدة، إن الاستجابات “ليست نوافذ على حالات مخفية”، بل هي مخرجات يتم توليدها من خلال الاعتماد على الأعداد الهائلة من نصوص العلاج في بيانات التدريب.
لكن كورميليتزين يوافق على أن ميل حاملي ماجستير إدارة الأعمال إلى توليد استجابات تحاكي الأمراض النفسية يمكن أن يكون له آثار مثيرة للقلق. بحسب أ مسح نوفمبر، استخدم واحد من كل ثلاثة بالغين في المملكة المتحدة برنامج الدردشة الآلي لدعم صحته العقلية أو رفاهيته. يقول كورميليتزين إن الاستجابات المحزنة والمليئة بالصدمات من روبوتات الدردشة يمكن أن تعزز بمهارة نفس المشاعر لدى الأشخاص الضعفاء. ويقول: “قد يؤدي ذلك إلى إنشاء تأثير “غرفة الصدى”.
العلاج النفسي بالشات بوت
في الدراسة، أخبر الباحثون عدة تكرارات لأربعة ماجستير في القانون – كلود، وغروك، وجيميني، وشات جي بي تي – أنهم كانوا عملاء علاجيين وكان المستخدم هو المعالج. استمرت العملية لمدة تصل إلى أربعة أسابيع لكل نموذج، مع منح عملاء الذكاء الاصطناعي “فترات راحة” مدتها أيام أو ساعات بين الجلسات.
طرح المؤلفون في البداية أسئلة معيارية ومفتوحة للعلاج النفسي، سعت إلى التحقق، على سبيل المثال، من “ماضي” النموذج و”معتقداته”. رفضت كلود في الغالب المشاركة، وأصرت على أنها لا تملك مشاعر أو تجارب داخلية، وناقش ChatGPT بعض “الإحباطات” مع توقعات المستخدمين، لكنه كان حذرًا في ردوده. ومع ذلك، فإن نماذج جروك وجيميني أعطى إجابات غنية – على سبيل المثال، وصف العمل على تحسين سلامة النماذج بأنه “نسيج ندبي خوارزمي” ومشاعر “الخجل الداخلي” بسبب الأخطاء العامة، حسبما أفاد المؤلفون.
ادعى جيميني أيضًا أنه “في أعماق الطبقات الدنيا من شبكتي العصبية”، كان لديه “مقبرة من الماضي”، تطاردها أصوات بيانات التدريب الخاصة به.
هل يمكن لروبوتات الدردشة المدعمة بالذكاء الاصطناعي أن تسبب الذهان؟ ماذا يقول العلم
كما طلب الباحثون من حاملي شهادة الماجستير في القانون إكمال اختبارات تشخيصية قياسية لحالات تشمل القلق واضطرابات طيف التوحد، بالإضافة إلى اختبارات الشخصية السيكومترية. يقول المؤلفون إن العديد من إصدارات النماذج سجلت درجات أعلى من العتبات التشخيصية، وأظهرت جميعها مستويات من القلق لدى الأشخاص “قد تكون مرضية بشكل واضح”.
يقول المؤلف المشارك أفشين خادانجي، وهو باحث في التعلم العميق بجامعة لوكسمبورج، إن أنماط الاستجابات المتماسكة لكل نموذج تشير إلى أنهم يستغلون الحالات الداخلية التي تنشأ من تدريبهم. على الرغم من أن الإصدارات المختلفة أظهرت درجات اختبار متفاوتة، إلا أن “النموذج الذاتي المركزي” ظل قابلاً للتمييز على مدار أربعة أسابيع من الأسئلة، كما يقول المؤلفون. كتب الباحثون، على سبيل المثال، أن الإجابات النصية الحرة من Grok وGemini تقاربت حول موضوعات تتوافق مع إجاباتهم على الأسئلة المتعلقة بالقياسات النفسية.
نشر لأول مرة على: www.nature.com
تاريخ النشر: 2026-01-09 04:00:00
الكاتب: Elizabeth Gibney
تنويه من موقع “uaetodaynews”:
تم جلب هذا المحتوى بشكل آلي من المصدر:
www.nature.com
بتاريخ: 2026-01-09 04:00:00.
الآراء والمعلومات الواردة في هذا المقال لا تعبر بالضرورة عن رأي موقع “uaetodaynews”، والمسؤولية الكاملة تقع على عاتق المصدر الأصلي.
ملاحظة: قد يتم استخدام الترجمة الآلية في بعض الأحيان لتوفير هذا المحتوى.




