دراسة: ChatGPT يظهر سلوكيات غير عقلانية مشابهة للبشر في 47% من الحالات

كشفت دراسة أجرتها جامعات كندية وأسترالية أن روبوت الدردشة ChatGPT، المدعوم بنماذج GPT-3.5 وGPT-4 من OpenAI، يُظهر سلوكيات غير عقلانية شبيهة بالبشر في 47% من الحالات. رغم اتساق هذه النماذج في الاستدلال، فإنها تتأثر بتحيزات معرفية مثل تجنب المخاطرة والثقة الزائدة.

اختبر الباحثون النماذج في سيناريوهات نفسية وتجارية، فأظهرت GPT-4 دقة عالية في المهام الرياضية، لكنها تعثرت في قرارات محفوفة بالمخاطر، معكسةً عقلانية غير منطقية مشابهة للبشر. وأشار الباحثون إلى أن GPT-4 تميل إلى الحذر أكثر من البشر.

يحذر البروفيسور يانغ تشين من كلية آيفي للأعمال في كندا من الاعتماد الكلي على الذكاء الاصطناعي في القرارات الاستراتيجية، مؤكدًا ضرورة الإشراف البشري لتجنب أتمتة الأخطاء. ويوصي باستخدام الذكاء الاصطناعي في المهام الحسابية مع توجيه أخلاقي لضمان الموضوعية.




إغلاق

تعليقات الزوار إن التعليقات الواردة لا تعبر بالضرورة عن رأي وفكر إدارة الموقع، بل يتحمل كاتب التعليق مسؤوليتها كاملاً
أضف تعليقك
الاسم  *
البريد الالكتروني
حقل البريد الالكتروني اختياري، وسيتم عرضه تحت التعليق إذا أضفته
عنوان التعليق  *
نص التعليق  *
يرجى كتابة النص الموجود في الصورة، مع مراعاة الأحرف الكبيرة والصغيرة رموز التحقق
رد على تعليق
الاسم  *
البريد الالكتروني
حقل البريد الالكتروني اختياري، وسيتم عرضه تحت التعليق إذا أضفته
نص الرد  *
يرجى كتابة النص الموجود في الصورة، مع مراعاة الأحرف الكبيرة والصغيرة رموز التحقق
 
اسـتفتــاء الأرشيف

اختر "الشخصية القيادية العربية الأكثر تأثيرا عام 2025"!