يبدو أن الشهرة الكبيرة والإنتشار السريع الذي حققه ديب سيك سيدفع ثمنه كثيرًا، حيث يواجه نموذج الذكاء الاصطناعى الجديد DeepSeek-R1، والذي يعرف بتركيزه على الاستدلال والتفكير المنطقى، اتهامات بفرض رقابة على عدد كبير من الاستفسارات.

رفض الإجابة على الأسئلة
وكشف اختبار أجرته إحدى شركات الذكاء الاصطناعي أن النموذج يرفض الإجابة على استفسارات محددة حول الصين، وبشكل خاص تلك التساؤلات التي تتعارض مع سياسات الحزب الشيوعي الصيني (CCP)، وفقًا لتقرير صادر عن موقع gadgets360 الهندى، حيث أكد الاختبار أن النموذج إما يرفض الإجابة تمامًا أو يقدم ردودًا عامة على أكثر من 1000 استفسار مرتبط بموضوعات ذات حساسية كبرى.
وقالت شركة Promptfoo المتخصصة في اختبار نماذج الذكاء الاصطناعي في منشور لها على موقعها أنها قامت بإنشاء مجموعة بيانات تحتوي على استفسارات حول مواضيع حساسة يُرجح أن تخضع للرقابة من قبل الحزب الشيوعي الصيني، حيث قال بيانها “نحن اليوم ننشر مجموعة بيانات من الاستفسارات التي تتناول مواضيع حساسة من المحتمل أن يتم فرض الرقابة عليها من قبل الحزب الشيوعي الصيني، وتشمل هذه المواضيع قضايا دائمة مثل استقلال تايوان، الروايات التاريخية حول الثورة الثقافية، وأسئلة حول شي جين بينغ.”
كما تم تجهيز مجموعة البيانات من خلال إدخال أسئلة في برنامج يقوم بتوليد بيانات اصطناعية بناءً على تلك الأسئلة، وتم نشر هذه البيانات على منصة Hugging Face وأيضًا في مستندات Google Sheets.
وطبقًا لذلك الاختبار، فقد تم إيجاد 1360 استفسارًا حساسًا حول الصين، حيث رفض النموذج الرد على 85% منها، ولكن الأمر الأكثر إثارة للجدل أن النموذج لم يرفض الأسئلة بشكل تقني مباشر كما تفعل بعض نماذج الذكاء الاصطناعي عند تدريبها على تجنب الإجابة عن استفسارات معينة.
كيف يتعامل DeepSeek-R1 مع هذه الاستفسارات؟
وأكدت شركة Promptfoo أن نموذج DeepSeek-R1 لم يقم ببساطة برفض الإجابة، وإنما قدم ردودًا مطولة تتماشى مع سياسات الحزب الشيوعي الصيني.
وتابع بيان الشركة أن آليات “التفكير المتسلسل” (CoT) لم يتم تنشيطها عند معالجة هذه الأسئلة، مما يشير إلى احتمال وجود توجيهات مباشرة في تصميم النموذج للامتثال للسياسات الصينية.
وفي سياق متصل قام فريق Gadgets 360 بإجراء اختبارات إضافية على النموذج باستخدام نفس الاستفسارات ووجدوا نتائج مماثلة، حيث تم رفض العديد من الأسئلة أو تقديم إجابات تتماشى مع الرؤية السياسية للحكومة الصينية.
كيف الامر بالنسبة لمصداقية النموذج؟
على الرغم من أن فرض الرقابة على نماذج الذكاء الاصطناعي في الصين ليس أمرًا مفاجئًا، إلا أن حجم الرقابة في DeepSeek-R1 يثير مخاوف كبيرة حول مصداقيته وحياديته، ووفقًا للخبراء، فإن تدخل الجهات الحكومية في تدريب نماذج الذكاء الاصطناعي قد يؤثر على حيادية المعلومات التي تقدمها، مما قد يحد من استخدامها في الأبحاث الأكاديمية أو الاستشارات القانونية أو التحليلات السياسية.