تحذير أكاديمي من أخطر نسخ الذكاء الاصطناعي “AGI” فما السبب؟

انتشرت في الآونة الأخيرة رسالة بحثية، يحذر فيها الباحثون في مجال “الذكاء الاصطناعي” من التطور الهائل في هذا المجال، والذي لا يمكن السيطرة عليه في ظل افتقار وسائل الأمن، والتنظيم اللازمة، وجاءت هذه الرسالة قبل انعقاد أول قمة عالمية حول سلامة الذكاء الاصطناعي أول الشهر المقبل نوفمبر 2023 في بريطانيا بحسب ما ذكرته وكالة “رويترز” العالمية، فما هذه المخاطر التي يحذر منها الباحثون؟ وهل يهدد “الذكاء الاصطناعي العام AGI” أمن الدول؟ هذا ما سنتعرف عليه في هذا المقال.

فقدان السيطرة على الذكاء الاصطناعي يهدد أمن البشرية

فقدان السيطرة على الذكاء الاصطناعي يهدد أمن البشرية

عباقرة التكنولوجيا في العالم يحذرون من فقدان السيطرة على نموذج “AGI”

جدير بالذكر، أن هذه الرسالة بعنوان “إدارة أخطار الذكاء الاصطناعي في عصر التقدم السريع” وقد شارك فيها 24 من الباحثين المتخصصين في هذا المجال، منهم 3 فائزين بجائزة تورينغ “Turing Award” وهي بمثابة جائزة نوبل في علوم الحاسب، ومن أشهر المشاركين في هذه الورقة “يوشوا بنجيو” والعالم “جيوفري هينتون” واللذان يمكن اعتبارهما من آباء التكنولوجيا.

ومما يدعو للقلق أن هينتون البالغ من العمر 75 عامًا قد قدم استقالته من شركة جوجل في مايو الماضي، بحسب تقرير نشرته صحيفة “نيويورك تايمز” والذي أعرب فيه عن أسفه لعمله في هذا المجال، كما تحدث بحرية عن مخاوفه من وقوع هذه التقنيات الهائلة بيد الجهات السيئة، وختم حديثه عن تطور تقنية “AGI” قائلًا:

“في الوقت الحالي هي ليست أكثر ذكاء منا حسب اعتقادي، لكنني أعتقد أنها ستتفوق علينا قريباً”.

أما عن الملياردير الأمريكي الشهير، ومالك منصة إكس “إيلون ماسك” فقد نشرت صحيفة “وول ستريت جورنال” تقريرًا عن اجتماع مغلق ضم كبار الشخصيات العالمية في مجال التكنولوجيا، والذي انعقد في واشنطن، مع أكثر من 60 من أعضاء مجلس الشيوخ الأمريكي، وقد حذر صاحب شركة “تويتر” من قدرة الذكاء الاصطناعي على تهديد البشرية، كما أيد فكرة إنشاء وكالة فيدرالية للإشراف على التطوير في هذا المجال.

قيادات في Google تصرح بأن الذكاء الاصطناعي يريد السيطرة مثل الأسلحة النووية

لم تقف التحذيرات عند هذا الحد، بل نشرت صحيفة “Vox News” تصريحًا على لسان “ساندر بيتشاي Sundar Pichai” الرئيس التنفيذي لشركة جوجل بأن خطر تطور تقنية “AGI” غير المحسوب يجعله غير قادر على النوم ليلًا، كما شبه خطورته، بالأسلحة النووية، ووافق غيره من كبار رجال التكنولوجيا في العالم على ضرورة وضع أنظمة قوية تحافظ على أمان استخدام هذه التقنيات الحديثة، وأضاف أن النسخة الحالية من نموذج الذكاء الاصطناعي المقدمة من شركة جوجل “Google Bard” آمنة، ولا تنوي الشركة إصدار نسخ متقدمة منها لهذا العام 2023.

تصريح الرئيس التنفيذي لجوجل عن مخاوفه بشأن خطر الذكاء الاصطناعي
تصريح الرئيس التنفيذي لجوجل عن مخاوفه بشأن خطر الذكاء الاصطناعي المصدر: Vox News

أهم المخاوف التي ذكرها العلماء في هذه الرسالة

في هذه الرسالة البحثية، والتي نشرت يوم الثلاثاء 24 أكتوبر من عام 2023، توصل العلماء فيها إلى بعض المخاطر الناتجة عن تطوير مجال “AGI”، كما تقدموا ببعض التوصيات للتغلب على هذه المشكلات، ومن أبرزها:

  • نموذج GPT-2 الذي صدر في عام 2019، لم يكن له القدرة على العد إلى رقم 10، والآن بعد 4 سنوات أصبح قادرًا على تقديم المشورة الفكرية، وتحليل اللغة، والجمع بين الصور والمعلومات لتوجيه الروبوتات، مما يعني أن في خلال 4 سنوات أخرى قد يتفوق على العقل البشري بصورة هائلة.
  • تتفوق هذه التقنيات على العقل البشري في عدة أمور، فهي تستوعب عددًا كبيرًا من المعلومات الهائلة، وتنجز العديد من المهام في وقت أسرع.
  • إذا تمت السيطرة على أنظمة “AGI” بشكل عادل، فيمكنها أن تساعد البشرية في عدة جوانب مثل: علاج الأمراض، ورفع مستوى المعيشة، وحماية أنظمة البيئة.
  • تنفق الحكومات موارد هائلة لتطوير هذه التقنيات، ولكنها تهمل جانب الأمن، والسلامة، والذي يمكن أن يسبب نتائج عكسية، وأكد العلماء أننا تأخرنا بالفعل في استيعاب هذه المخاطر، وقد يعود ذلك علينا بأضرار غير محمودة العواقب.
  • يمكن للتطور التقني غير المحسوب أن يستخدم في الأنشطة الإجرامية، والإرهابية، وأن يهدد استقرار المجتمعات من خلال استخدام الثغرات في الأنظمة المصرفية، وتسليح الجيوش، ووسائل الأعلام مما يزعزع كيان دول بأكملها.

تخصيص ثلث ميزانية تطوير تقنية “AGI” في مجال الأمن والسلامة

حث مؤلفو الرسالة، كبار شركات التكنولوجيا، والممولين لها، على تخصيص ما لا يقل عن ثلث ميزانية البحث، والتطوير في مجال الذكاء الاصطناعي لضمان السلامة، والاستخدام الأخلاقي، وتحدث العلماء عن قانون الذكاء الاصطناعي القادم في الاتحاد الأوروبي باعتباره أول تنظيم خاص بهذا المجال في العالم، والذي يسعى لوضع مجموعة واضحة من القوانين، والقواعد بشأن تطوير التكنولوجيا جنبًا إلى جنب مع الحفاظ على الأمن، والسلامة.

وفي النهاية تظل مخاوف كبار رجال الأعمال، والمستثمرين في هذا المجال من أن هذه القوانين قد تضع الخناق على حرية الإبداع، والابتكار في هذا المجال؛ فيبدو أننا نسير على خيط رفيع جدًا بين تطوير مجال “AGI” وتنظيم العمل به، مما يحتاج إلى استثمارات ضخمة، وتعاون بين المؤسسات، والحكومات لمنع حدوث كارثة عالمية، لربما يصعب السيطرة عليها في المستقبل.


قد يهمك:

عن الكاتب:
اترك رد