OpenAI تنشئ مجلسًا مستقلًا للإشراف على سلامة الذكاء الاصطناعي
مجلس الإشراف الجديد يتمتع بصلاحيات لوقف إطلاق النماذج حتى يتم التأكد من معايير السلامة
في خطوة كبيرة نحو تعزيز الشفافية وضمان الأمان في تطوير نماذج الذكاء الاصطناعي، أعلنت شركة OpenAI عن تأسيس مجلس مستقل للإشراف على السلامة والأمان، خالٍ من تأثير الرئيس التنفيذي سام ألتمان. يأتي هذا المجلس الجديد بسلطات أوسع، حيث سيقوم بالإشراف على إطلاق النماذج الجديدة وضمان الالتزام بمعايير السلامة قبل إتاحتها للجمهور.
هيكل المجلس وأعضاؤه
سيترأس المجلس زيكو كولتر، مدير قسم تعلم الآلة في جامعة كارنيجي ميلون، ويضم أعضاء بارزين مثل آدم دانجيلو، الرئيس التنفيذي لشركة Quora، والجنرال المتقاعد بول ناكاسوني، إضافة إلى نيكول سيليجمان، المديرة التنفيذية السابقة في سوني. هذا المجلس يأتي كبديل للجنة السلامة السابقة التي كانت تشمل ألتمان ضمن أعضائها.
سلطات المجلس الجديدة
من أبرز صلاحيات هذا المجلس هو إمكانية تأجيل إطلاق أي نموذج جديد حتى يتم معالجة المخاوف المتعلقة بالسلامة. المجلس سيتابع بعناية عمليات التقييم والمراجعة المتعلقة بنماذج الذكاء الاصطناعي الجديدة، مما يمنحه القدرة على وقف الإطلاق إذا تم تحديد أي مخاطر أمنية. هذا التوجه يعكس التزام OpenAI بتعزيز معايير السلامة استجابة للانتقادات السابقة التي واجهتها، خاصة فيما يتعلق بنموذجها السابق Superalignment والذي شهد مغادرة العديد من القادة الرئيسيين في مجال الأمان.
تعزيز الشفافية والتعاون الدولي
إلى جانب صلاحياته المحلية، يهدف المجلس أيضًا إلى تعزيز الشفافية من خلال التعاون مع منظمات دولية متخصصة في أبحاث سلامة الذكاء الاصطناعي. من المتوقع أن يسهم هذا التعاون في تطوير معايير سلامة موثوقة تتماشى مع الجهود العالمية لضمان تطوير ذكاء اصطناعي آمن ومسؤول.
الخلاصة
يمثل إنشاء هذا المجلس المستقل خطوة كبيرة نحو تحقيق الأمان والشفافية في مجال الذكاء الاصطناعي، حيث سيساعد على ضمان أن تقنيات الذكاء الاصطناعي المستقبلية ستكون أكثر أمانًا ومسؤولية. ومع التحديات المتزايدة المرتبطة بالذكاء الاصطناعي، فإن مثل هذه الإجراءات تعتبر ضرورية للحفاظ على ثقة الجمهور وضمان استخدام هذه التقنيات بشكل آمن
الأسئلة الشائعة (FAQs) حول مجلس السلامة والأمان الجديد في OpenAI
1. ما هو الهدف من تأسيس مجلس السلامة والأمان الجديد في OpenAI؟
الهدف من تأسيس المجلس هو تعزيز الشفافية وضمان السلامة والأمان في تطوير نماذج الذكاء الاصطناعي. يتمتع المجلس بصلاحيات مستقلة عن الإدارة التنفيذية، ويعمل على تقييم المخاطر المتعلقة بالنماذج الجديدة قبل إطلاقها.
2. من هم أعضاء مجلس السلامة الجديد؟
يرأس المجلس زيكو كولتر، مدير قسم تعلم الآلة في جامعة كارنيجي ميلون. يشمل المجلس أيضًا أعضاء بارزين مثل آدم دانجيلو، الرئيس التنفيذي لشركة Quora، والجنرال المتقاعد بول ناكاسوني، ونيكول سيليجمان، المديرة التنفيذية السابقة في سوني.
3. ما هي الصلاحيات الجديدة التي يتمتع بها المجلس؟
يتمتع المجلس بسلطة تأجيل أو وقف إطلاق أي نموذج جديد حتى يتم معالجة المخاوف المتعلقة بالسلامة. يتمتع المجلس بإمكانية متابعة عمليات التقييم والمراجعة بدقة لضمان سلامة نماذج الذكاء الاصطناعي قبل إتاحتها للجمهور.
4. كيف يساهم المجلس في تعزيز الشفافية؟
إلى جانب سلطاته المحلية، يسعى المجلس إلى التعاون مع منظمات دولية متخصصة في سلامة الذكاء الاصطناعي لتطوير معايير عالمية للسلامة. يسهم هذا التعاون في بناء نظام عالمي لضمان استخدام الذكاء الاصطناعي بشكل آمن ومسؤول.
5. كيف يعالج المجلس الانتقادات السابقة المتعلقة بسلامة الذكاء الاصطناعي في OpenAI؟
المجلس جاء استجابة للانتقادات التي واجهتها OpenAI فيما يتعلق بسلامة بعض نماذجها السابقة. من خلال تعزيز إجراءات التقييم والرقابة المستقلة، يأمل المجلس في تحسين معايير السلامة والتقليل من المخاطر المرتبطة بنماذج الذكاء الاصطناعي.
6. ما هو تأثير هذا المجلس على إطلاق النماذج المستقبلية؟
يمكن للمجلس تأخير إطلاق النماذج الجديدة حتى يتم التأكد من معالجة أي مخاوف تتعلق بالسلامة، مما يضمن أن تكون النماذج آمنة ومسؤولة قبل إتاحتها للجمهور.
7. لماذا تم إنشاء مجلس مستقل خالٍ من تأثير الرئيس التنفيذي؟
تم إنشاء المجلس لضمان الشفافية والحيادية في عملية الإشراف على السلامة، حيث يمكن للمجلس اتخاذ قرارات دون تأثير من الإدارة التنفيذية لضمان الأولوية للسلامة والأمان.