في تحول ملحوظ بسياستها، فتحت OpenAI الطريق للتطبيقات العسكرية لتقنياتها، حيث تم تحديث سياسة الاستخدام السابقة التي كانت تحظر استخدام منتجاتها في مجالات عسكرية وحربية، الشركة لم تنفِ إمكانية استخدام تقنياتها الآن في الأغراض العسكرية، وهو ما لاحظه موقع The Intercept أول مرة في 10 يناير.
التغيير في صياغة السياسة، الذي يُعد شائعًا في قطاع التكنولوجيا، يشير إلى تحول OpenAI عن موقفها السابق الذي كان يحظر استخدام تقنياتها في أنشطة قد تسبب أذى جسديًا كبيرًا، بما في ذلك في مجالات الأسلحة والجيش والحرب.
وفقًا للسياسة الجديدة، يُطلب من المستخدمين عدم استخدام خدمات OpenAI لإلحاق الأذى بأنفسهم أو بالآخرين، مع ذكر تطوير الأسلحة كمثال، ومع ذلك، يبدو أن الحظر الكامل على الاستخدام العسكري والحربي قد تم إزالته.
هذا التنقيح جزء من إعادة كتابة كبرى لصفحة السياسة، والتي قالت الشركة إنها تهدف من خلالها إلى جعل السياسة واضحة وسهلة القراءة، مع تضمين تغييرات جوهرية أخرى في اللغة والتنسيق.
تُظهر هذه الخطوة أن OpenAI تبحث عن فرص جديدة في السوق، مع الأخذ في الاعتبار أن الأنشطة العسكرية لا تقتصر على الحرب فقط، بل تشمل أيضًا البحوث الأساسية، الاستثمارات، ودعم البنية التحتية.
بعد إزالة الحظر على الاستخدامات العسكرية والحربية، يبدو أن OpenAI أصبحت مستعدة لخدمة العملاء في القطاع العسكري، ويبقى السؤال المطروح حول كيفية تأثير هذه التغييرات على الاستخدام العام لتقنيات الذكاء الاصطناعي وتأثيرها على الأمن والخصوصية.
تؤكد الشركة على سياستها الجديدة، موضحة أن البند المتعلق بمنع تطوير واستخدام الأسلحة لا يزال قائمًا، لكنه منفصل عن الاستخدام العسكري والحربي، مشيرة إلى أن مهام الجيش قد تتجاوز مجرد صناعة الأسلحة.
بهذا التغيير الجوهري، توضح OpenAI أنها تسعى لتطوير مبادئ عالمية يسهل تذكرها وتطبيقها، خاصةً مع استخدام أدواتها عالميًا من قبل المستخدمين العاديين الذين يمكنهم الآن أيضًا إنشاء GPTs.
يُعد هذا التغيير في سياسة الاستخدام لـ OpenAI خطوة مهمة في تطورها ويفتح الباب أمام تساؤلات حول كيفية التعامل مع الأخلاقيات والسلامة في عالم تقنيات الذكاء الاصطناعي.
تليجرام فيسبوك الاتصال بنا من نحن الخصوصية فريق العمل حقوق الملكية EN