OpenAI تتعهد بنشر نتائج أمان: في سعيها لتعزيز الشفافية، أعلنت شركة OpenAI التزامها بنشر نتائج تقييمات الأمان الداخلية لنماذج الذكاء الاصطناعي التى تطورها بشكل دوري. تم إطلاق منصة جديدة باسم “Safety Evaluations Hub” لعرض أداء النماذج على اختبارات تتعلق بالمحتوى الضار، وعمليات الالتفاف على القيود (jailbreaks)، وظاهرة الهلاوس الرقمية. OpenAI أكدت أن المنصة ستُحدَّث بشكل مستمر، وقالت: “من خلال مشاركة مجموعة من نتائج تقييمات الأمان، نأمل في تسهيل فهم أداء النماذج من حيث السلامة على مرّ الزمن، ودعم جهود المجتمع العلمي في تعزيز الشفافية على مستوى القطاع بأكمله”. وبالرغم من ذلك، تتعرض OpenAI لانتقادات بسبب اتهام بعض الباحثين في أخلاقيات الذكاء الاصطناعي بالتسرع في اختبار نماذجها الرئيسية وعدم الإفصاح الكامل عن تقاريرها الفنية. وفي شهر نوفمبر 2023، تم إقالة الرئيس التنفيذي للشركة، سام ألتمان، بعد اتهامات بـتضليل فريق الإدارة بشأن مراجعات الأمان. فيما اضطرت الشركة الشهر الماضي إلى سحب تحديث حديث للنموذج الافتراضي GPT-4o بعد شكاوى من ميل النموذج إلى الإيجابية المفرطة. OpenAI أعلنت عن سلسلة من الإجراءات التصحيحية، من بينها إطلاق “مرحلة ألفا” لبعض النماذج الجديدة، تتيح للمستخدمين اختبارها مسبقًا وتقديم ملاحظاتهم قبل الإطلاق الرسمي.
من الاستنتاجات الهامة التي يمكن أن نستنتجها من البيانات هو أهمية الشفافية والتقييم المستمر لنماذج الذكاء الاصطناعي من أجل ضمان سلامتها وتقييمها بشكل دوري. كما يظهر أن هناك تحديات تواجه شركات مثل OpenAI فيما يتعلق بالامتثال لمعايير الأمان والشفافية.
أسئلة تفاعلية:
1. هل تعتقد أن هناك حلول فورية وفعالة لمشاكل أمان الذكاء الاصطناعي؟
2. كيف يمكن للحكومات التعاون مع الشركات التقنية لضمان سلامة الذكاء الاصطناعي؟
3. هل تعتقد أن الشرك
ومن الجدير بالذكر أن OpenAI تعتبر واحدة من أبرز الشركات التي تعمل على تطوير التكنولوجيا الذكية، وتسعى دائمًا إلى تحسين أمان وأداء النماذج الخاصة بها. ومع هذه الإجراءات الجديدة التي تقوم بها الشركة، يمكن توقع المزيد من التحسينات في مجال سلامة الذكاء الاصطناعي والشفافية من قبل OpenAI في المستقبل.








