OpenAI تجد حلًّا جديدًا لمحاربة “هلوسة” الذكاء الاصطناعي

أعلنت شركة “أوبن أي آي” OpenAI يوم الأربعاء أنها ستتصدى لظاهرة “هلوسة” الذكاء الاصطناعي، وذلك من خلال اعتماد أسلوب تدريب جديد لنماذج اللغة الكبيرة.

تأتي هذه الخطوة من الشركة الناشئة الأمريكية في وقت يثار فيه الجدل حول الأخبار المضللة التي تنتجها أنظمة الذكاء الاصطناعي على المستوى العالمي، وتتزايد المخاوف بشأن تأثيرها على الانتخابات الرئاسية الأمريكية المقبلة في عام 2024.

وقد ساهمت “أوبن أي آي” OpenAI في تسريع تقدم الذكاء الاصطناعي التوليدي في العام الماضي عندما أطلقت روبوت الدردشة “شات جي بي تي” ChatGPT، ونجحت بسرعة في جذب 100 مليون مستخدم شهرياً في غضون شهرين، لتصبح واحدة من أسرع التطبيقات الويب نمواً على الإطلاق.

أوبن أي آي تتصدى لهلوسة الذكاء الاصطناعي

تحدث ظاهرة هلوسة الذكاء الاصطناعي عندما تقوم روبوتات الدردشة مثل “شات جي بي تي” من “أوبن أي آي” أو “بارد” من غوغل بإنتاج معلومات وادعاءات لا أساس لها من الحقيقة.

وفي تقرير صادر عن الباحثين في “أوبن أي آي”، أشاروا إلى أن “حتى النماذج الحديثة تميل إلى إنتاج أكاذيب، وتبدي ميلًا لاختراع الحقائق في اللحظات غير المؤكدة”. وأضافوا: “تعتبر ظاهرة الهلوسة مشكلة خاصة في المجالات التي تتطلب تفكيراً متعدد الخطوات، فحتى خطأ منطقي واحد قد يعوق التوصل إلى الحل النهائي”.

يتمثل النهج الجديد المتبع من قبل “أوبن أي آي” OpenAI لمكافحة هلوسة الذكاء الاصطناعي في تدريب النماذج لمكافأة نفسها على كل خطوة فردية صحيحة في التفكير المنطقي حتى تصل إلى الإجابة الصحيحة، بدلاً من مجرد مكافأتها على النتيجة النهائية الصحيحة.

ويُطلق على هذا النهج اسم “مراقبة العملية” بدلاً من “مراقبة النتائج”، ويرى الباحثون أنه يمكن أن يؤدي إلى تحسين الشفافية في الذكاء الاصطناعي، إذ تشجع هذه الاستراتيجية النماذج على اعتماد نهج يتشابه مع تسلسل الأفكار البشرية.

صرح كارل كوبي، باحث الرياضيات في “أوبن أي آي”، لشبكة “سي إن بي سي” CNBC الأمريكية قائلاً: “اكتشاف الأخطاء المنطقية أو الهلوسة في النماذج والحد من تأثيرها هو خطوة حاسمة في بناء الذكاء الاصطناعي العام المتوافق”.

على الرغم من أن هذا النهج ليس ابتكارًا خاصًا بـ”أوبن أي آي”، إلا أنهم يسعون للمساهمة في تطويره. وأضاف قائلاً: “تتمحور هذه الدراسة حول معالجة الهلوسة من أجل تمكين النماذج من حل مشكلات التفكير المنطقي”.

تأتي هذه الخطوة أيضًا بعد يوم واحد من انضمام سام ألتمان، المدير التنفيذي لشركة “أوبن أي آي”، إلى خبراء وأكاديميين في تحذير من “خطر انقراض البشرية بسبب الذكاء الاصطناعي” وحث صانعي السياسة على معالجة المخاطر التقنية بنفس الأهمية الممنوحة للأوبئة والحروب النووية.


قد يهمك:

عن الكاتب:
اترك رد