كشفت دراسة أجرتها جامعات كندية وأسترالية أن روبوت الدردشة ChatGPT، المدعوم بنماذج GPT-3.5 وGPT-4 من OpenAI، يُظهر سلوكيات غير عقلانية شبيهة بالبشر في 47% من الحالات. رغم اتساق هذه النماذج في الاستدلال، فإنها تتأثر بتحيزات معرفية مثل تجنب المخاطرة والثقة الزائدة.
اختبر الباحثون النماذج في سيناريوهات نفسية وتجارية، فأظهرت GPT-4 دقة عالية في المهام الرياضية، لكنها تعثرت في قرارات محفوفة بالمخاطر، معكسةً عقلانية غير منطقية مشابهة للبشر. وأشار الباحثون إلى أن GPT-4 تميل إلى الحذر أكثر من البشر.
يحذر البروفيسور يانغ تشين من كلية آيفي للأعمال في كندا من الاعتماد الكلي على الذكاء الاصطناعي في القرارات الاستراتيجية، مؤكدًا ضرورة الإشراف البشري لتجنب أتمتة الأخطاء. ويوصي باستخدام الذكاء الاصطناعي في المهام الحسابية مع توجيه أخلاقي لضمان الموضوعية.