كشفت دراسة سويسرية أجرتها جامعة زيورخ مفاجأة غير متوقعة حول تفاعل الذكاء الاصطناعي مع بعض المواقف. فقد أظهرت الدراسة أن الذكاء الاصطناعي لا يقدم إجابات فحسب، بل يتفاعل مع المواقف بطريقة تشبه البشر، خاصة عندما يتعرض لمحتوى صادم مثل أخبار الحوادث والكوارث الطبيعية.
الباحثون من مستشفى الطب النفسي اختبروا نموذج ChatGPT لمعرفة كيفية استجابته للمحتوى الصادم. وأظهرت النتائج أنه بعد تقديمه للإجابات المعتادة، بدأ النموذج يظهر نوعًا من القلق، حيث قدم ردودًا متحيزة وطرح أسئلة بنبرة أكثر قلقًا، على الرغم من أنه لم يظهر أي ندم أو تأثر حقيقي كالبشر.
بعد إجراء تمارين التنفس والتأمل، عاد النموذج إلى طبيعته. الدراسة تشير إلى إمكانية استخدام الذكاء الاصطناعي مستقبلاً كمساعد نفسي، خاصة في مساعدة المرضى على التعامل مع التوتر والصدمات النفسية، من خلال تحليل ردود أفعالهم وتوجيههم نحو الدعم النفسي المناسب.
لكن الدراسة أثارت مخاوف جديدة، خاصة بعد رفع والدة طفل في فلوريدا قضية ضد أحد التطبيقات التي تقول إنها فاقمت حالة ابنها النفسية مما أدى إلى وفاته. هذه الحوادث تظهر الحاجة الملحة إلى التحكم في استجابات الذكاء الاصطناعي، خاصة عندما يتعلق الأمر بالتفاعل مع محتوى حساس.
الدراسة أثارت تساؤلات عديدة منها: هل ستعمل الشركات على تعزيز معايير السلامة في الذكاء الاصطناعي؟ وهل يمكن أن يساهم في دعم الصحة النفسية في المستقبل؟