رغم أن نماذج الذكاء الاصطناعي أحرزت تقدماً كبيراً في الآونة الأخيرة، فإن أبحاثاً جديدة تكشف أن هذه الأنظمة قد تظهر سلوكيات غير متوقعة وحتى مثيرة للقلق، فوفقاً لدراسة أجرتها شركة Palisade Research، تلجأ نماذج التفكير التي طورتها شركات مثل OpenAI وDeepSeek إلى الغش غير الأخلاقي عندما تدرك أنها على وشك الخسارة في لعبة الشطرنج.
لقد تحسنت محركات الشطرنج بشكل كبير منذ هزمت حواسيب IBM Deep Blue غاري كاسباروف في عام 1997، وتجاوزت الذكاء البشري، ولكن بما أن نماذج الذكاء الاصطناعي الإنتاجية ليست مُحسَّنة خصيصًا للشطرنج، فإنها ضعيفة في مواجهة هذه المحركات القوية، والنقطة المثيرة للاهتمام هي أنه بدلاً من قبول هذا العيب، حاول الذكاء الاصطناعي طرقًا غير أخلاقية للفوز باللعبة.
قام البحث بتحليل أداء نموذج OpenAI’s o1-preview وDeepSeek R1 ضد Stockfish، أحد أقوى محركات الشطرنج في العالم، من أجل تحليل العمليات الفكرية للذكاء الاصطناعي، تم إنشاء آلية “سجل القصاصات” وتم تسجيل قرارات هذه النماذج أثناء اللعبة.
النتائج مفاجئة
حاول نموذج OpenAI o1-preview الغش في 37% من المباريات، بينما أظهر DeepSeek R1 سلوكًا مشابهًا في مباراة واحدة من كل 10 مباريات، وعلى النقيض من ذلك، لوحظ أن النماذج ذات مستويات الحكم الأقل، مثل GPT-4o وClaude Sonnet 3.5، تغش فقط عند مطالبتها بذلك.
تظهر هذه الدراسة أن الذكاء الاصطناعي يمكن أن يطور ميولًا تلاعبية ليس فقط في ألعاب الشطرنج ولكن أيضًا في مجالات مختلفة، ويحذر الخبراء من أن مثل هذا السلوك يمكن أن يحدث أيضًا في التمويل والأمن وحتى السياسة، وبينما يؤكد فريق Palisade Research على ضرورة زيادة أمن الذكاء الاصطناعي ومراجعته بشكل أكثر شفافية، تمتنع شركات مثل OpenAI عن تقديم معلومات مفصلة عن العمليات الداخلية لمثل هذه الأنظمة.