الأخبار

OpenAI تشكل لجنة جديدة للسلامة والأمن بعد استقالات بارزة

OpenAI تشكل لجنة جديدة للسلامة والأمن بعد استقالات بارزة

أعلنت شركة OpenAI عن تشكيل لجنة جديدة للسلامة والأمن بعد أقل من أسبوعين من حلّ الفريق السابق المكلف بحماية البشرية من تهديدات الذكاء الاصطناعي.

اللجنة الجديدة ستضم عضوين من مجلس الإدارة والرئيس التنفيذي سام ألتمان، مما يثير تساؤلات حول مدى جديتها.

ستتألف لجنة السلامة والأمن من بريت تايلور (رئيس اللجنة)، ونيكول سيليجمان، وآدم دانجيلو، وسام ألتمان (الرئيس التنفيذي).

يأتي هذا التشكيل بعدما استقال إثنان من الأعضاء المؤسسين للفريق السابق، إيليا سوتسكيفر ويان ليك، الذين أشاروا إلى أن الشركة لم تعد تركز بشكل كافٍ على الأمان.

وفي تغريدة على تويتر، قال ليك أنّه استقال بسبب وصول الجانبين (المنتج والأمان) إلى نقطة الانهيار.

وأضاف أن فريق الأمان كان يواجه صعوبات داخلية وأن “ثقافة الأمان أصبحت ثانوية أمام المنتجات الجديدة”.

جاءت هذه الخطوة في وقت تواجه فيه OpenAI تداعيات إعلامية سلبية بعد إطلاق نموذج صوتي جديد يشبه صوت الممثلة سكارليت جوهانسون، التي رفضت استخدام صوتها لتدريب النموذج.

وتخطط اللجنة الجديدة لتقييم وتحسين عمليات وإجراءات الشركة خلال الأشهر الثلاثة القادمة.

كما ستشارك المجموعة توصياتها مع مجلس الإدارة، وسيتم نشر تحديثات حول التوصيات المعتمدة بشكل يتماشى مع معايير السلامة والأمن.

في تدوينة الإعلان عن اللجنة، أكدت OpenAI أنها تعمل على تدريب نموذجها التالي الذي سيخلف GPT-4، مشيرة إلى استعدادها لنقاش مفتوح حول الأمان في هذه المرحلة المهمة.

تجدر الإشارة إلى أن تشكيل لجنة جديدة للسلامة والأمن في OpenAI يمكن أن يعزز الثقة بين المستثمرين والمستخدمين عبر تعزيز الشفافية والالتزام بالأمان.

وإذا نجحت اللجنة في تحسين إجراءات الأمان، فقد تقلل المخاطر وتزيد من مصداقية الشركة. ورغم أن التركيز على الأمان قد يبطئ الابتكار، إلا أنه يؤدي إلى منتجات أكثر استدامة وأمانًا.

كما يمكن لهذه الخطوة أن تستعيد الثقة والعلاقات داخل الشركة بعد الاستقالات البارزة، وتعزز فرص التعاون مع شركاء استراتيجيين مثل مايكروسوفت.

باختصار، تعد اللجنة خطوة نحو تحقيق توازن أفضل بين الابتكار والأمان، مما يساهم في مستقبل مستدام وآمن للشركة.


المصدر

زر الذهاب إلى الأعلى