MIT تطوّر "كاشف كذب" لأنظمة الذكاء الاصطناعي لتحسين الشفافية وتقليل الأخطاء

أعلن باحثون من معهد ماساتشوستس للتكنولوجيا (MIT) عن تطوير منصة جديدة تحمل اسم "كابسا" (Capsa)، تعمل بمثابة "كاشف كذب" للذكاء الاصطناعي، قادرة على تقييم مدى موثوقية استنتاجات النماذج الذكية وتحديد حدود معرفتها.  

وتدير المشروع شركة ناشئة أطلقها خبراء من المعهد، تُدعى Themis AI، هدفها الأساسي تدريب أنظمة الذكاء الاصطناعي على التمييز بين ما تعرفه بدقة وما يُحتمل أن يكون غير موثوق، عبر تصنيف التنبؤات غير المدعومة ببيانات كافية، وإلغاء اتخاذ القرارات بناءً عليها تلقائيًا.  

المنصة، التي تعمل مع مختلف نماذج تعلم الآلة بما فيها LLMs مثل ChatGPT، قادرة على كشف المؤشرات الدالة على الشك أو التحيز أو نقص المعلومات. وتستخدم حاليا في تطبيقات بالغة الحساسية تشمل شركات أدوية، حيث تُحلل خصائص الأدوية المقترحة، وكذلك في شركات الاتصالات لتحسين أداء الشبكات، وقطاع النفط والغاز لتحليل البيانات الزلزالية.  

وتكمن قوة "كابسا" في قدرتها على تقديم نتائج شبه فورية، ما يجعل استخدامها ممكنًا حتى على الأجهزة الطرفية مثل الهواتف الذكية، مما يفتح المجال لتطبيقات أوسع وأكثر أمانًا.




إغلاق


تعليقات الزوار إن التعليقات الواردة لا تعبر بالضرورة عن رأي وفكر إدارة الموقع، بل يتحمل كاتب التعليق مسؤوليتها كاملاً
أضف تعليقك
الاسم  *
البريد الالكتروني
حقل البريد الالكتروني اختياري، وسيتم عرضه تحت التعليق إذا أضفته
عنوان التعليق  *
نص التعليق  *
يرجى كتابة النص الموجود في الصورة، مع مراعاة الأحرف الكبيرة والصغيرة رموز التحقق
رد على تعليق
الاسم  *
البريد الالكتروني
حقل البريد الالكتروني اختياري، وسيتم عرضه تحت التعليق إذا أضفته
نص الرد  *
يرجى كتابة النص الموجود في الصورة، مع مراعاة الأحرف الكبيرة والصغيرة رموز التحقق
 
اسـتفتــاء الأرشيف

برأيك .. هل سيكون هناك علاقات أعمق بين سوريا وأمريكا؟