التقارير

OpenAI تُعدل سياساتها: هل تفتح باب استخدام الذكاء الاصطناعي في المجال العسكري؟

الذكاء الاصطناعي العسكري

في تحوّل جديد للسياسات التي تحكم استخدام الذكاء الاصطناعي، يبدو أن شركة OpenAI قد عدّلت منهجها فيما يتعلق بالاستخدامات المحظورة لنماذج الذكاء الاصطناعي التي تطورها، مما قد يفتح الباب أمام استخدام هذه التقنيات في المجال العسكري.

وفقاً للسياسات القديمة، كانت الاستخدامات التي تنطوي على خطر كبير من الضرر الجسدي، بما في ذلك التطوير العسكري والحربي، مدرجة ضمن الاستخدامات المحظورة.

لكن السياسة الجديدة التي وُصفت بأنها «أوضح» و «أسهل في القراءة»، وفقاً لموقع تِك كرانش، جاءت بصياغات عامة تحظر استخدام الخدمات لإلحاق الضرر بالنفس أو بالآخرين، دون أن تشير صراحةً إلى منع استخدام نماذج الذكاء الاصطناعي في تطوير التقنيات العسكرية.

رغم أن السياسة الجديدة تشير إلى منع استخدام الخدمات في «تطوير أو استخدام الأسلحة»، إلا أنها لم تعد تذكر بشكل محدد المجالات العسكرية والحربية.

هذا التغيير يرجح أن يسمح بإمكانية استخدام الذكاء الاصطناعي في مجالات عسكرية أخرى غير تطوير الأسلحة، مثل تحسين أمن المعلومات السيبراني، وتدريبات المحاكاة القتالية، والرعاية الصحية في ساحات القتال، وهي استخدامات قد تُعطي أفضلية لطرف معين دون أن ترتبط بشكل مباشر بالحرب التي تلحق الضرر بالآخرين.

ذو صلة > OpenAI تدافع عن استخدامها المواد المحمية بحقوق الطبع والنشر في تدريب الذكاء الاصطناعي

في السياق ذاته، يبدو أن هناك إجماعًا بين قادة العالم، مثل الرئيس الأمريكي جو بايدن والرئيس الصيني شي جينبينغ، على خطورة دمج الذكاء الاصطناعي في الأسلحة، خصوصاً الأسلحة الذاتية التشغيل.

وكان من المتوقع أن يتوصل الزعيمان إلى اتفاق بهذا الشأن خلال قمة التعاون الاقتصادي لآسيا والمحيط الهادئ (APEC)، دون وجود أنباء حتى الآن حول نتائج الموضوعات المطروحة.

وقد أفادت وزارة الخارجية الصينية، أن «الرئيسين سيتواصلان بعمق بشأن قضايا ذات ذات أهمية استراتيجية وشاملة وأساسية في تشكيل العلاقات بين الصين والولايات المتحدة والقضايا الكبرى المتعلقة بالسلام العالمي والتنمية».

لا يخفى على أحد أن الذكاء الاصطناعي، بكل ما يحمله من إمكانيات، لا يزال بعيدًا عن الكمال.

اقرأ > OpenAI تطلق متجر GPT واشتراك ChatGPT Teams بأسعار تنافسية

فقد أظهرت العديد من الحالات وجود تحيزات عرقية ومخاطر أمنية في تقنيات الذكاء الاصطناعي المتاحة حاليًا. وإذا ما تم استخدام هذه التقنيات في المجال العسكري، فقد تتضاعف هذه المشكلات وتتحول إلى مخاطر قد تضر بالمستخدمين أنفسهم.

في النهاية، تظل التغييرات الأخيرة في سياسات OpenAI محل تدقيق ونقاش، إذ تثير تساؤلات حول الدور الذي قد يلعبه الذكاء الاصطناعي في المستقبل العسكري والحروب القادمة.

ومع تزايد الاعتماد على هذه التقنيات في مختلف المجالات، يصبح من الضروري تحديد الخطوط الفاصلة بوضوح بين ما هو مسموح به وما هو محظور، لضمان استخدام التكنولوجيا بما يخدم البشرية ويحافظ على السلم العالمي.

المصدر

زر الذهاب إلى الأعلى