، مقالات

يضيف OpenAI أدوات مفتوحة المصدر لمساعدة المطورين على البناء من أجل سلامة المراهقين


قالت OpenAI يوم الثلاثاء إنها ستصدر مجموعة من المطالبات التي يمكن للمطورين استخدامها لجعل تطبيقاتهم أكثر أمانًا للمراهقين. وقال مختبر الذكاء الاصطناعي إن مجموعة سياسات سلامة المراهقين يمكن استخدامها مع نموذج الأمان ذو الوزن المفتوح المعروف باسم gpt-oss-safeguard.

بدلاً من العمل من الصفر لمعرفة كيفية جعل الذكاء الاصطناعي أكثر أمانًا للمراهقين، يمكن للمطورين استخدام هذه المطالبات لتحصين ما يبنونه. وهي تتناول قضايا مثل العنف التصويري والمحتوى الجنسي، والمثل والسلوكيات الجسدية الضارة، والأنشطة والتحديات الخطيرة، وتمثيل الأدوار الرومانسية أو العنيفة، والسلع والخدمات المقيدة بالفئة العمرية.

تم تصميم سياسات السلامة هذه كمطالبات، مما يجعلها متوافقة بسهولة مع النماذج الأخرى إلى جانب gpt-oss-safeguard، على الرغم من أنها ربما تكون أكثر فعالية داخل النظام البيئي الخاص بـ OpenAI.

لكتابة هذه المطالبات، قالت OpenAI إنها عملت مع هيئات مراقبة سلامة الذكاء الاصطناعي، وCommon Sense Media، وeveryone.ai.

قال روبي تورني، رئيس قسم الذكاء الاصطناعي والتقييمات الرقمية في Common Sense Media، في بيان: “تساعد هذه السياسات السريعة في وضع أرضية أمان ذات معنى عبر النظام البيئي، ونظرًا لإصدارها كمصدر مفتوح، يمكن تكييفها وتحسينها بمرور الوقت”.

أشارت OpenAI في مدونتها إلى أن المطورين، بما في ذلك الفرق ذات الخبرة، غالبًا ما يكافحون من أجل ترجمة أهداف السلامة إلى قواعد تشغيلية دقيقة.

وكتبت الشركة: “يمكن أن يؤدي هذا إلى ثغرات في الحماية، أو التنفيذ غير المتسق، أو التصفية واسعة النطاق بشكل مفرط”. “إن السياسات الواضحة ذات النطاق الجيد هي أساس بالغ الأهمية لأنظمة السلامة الفعالة.”

حدث تك كرانش

سان فرانسيسكو، كاليفورنيا
|
13-15 أكتوبر 2026

تعترف OpenAI بأن هذه السياسات ليست حلاً للتحديات المعقدة التي تواجه سلامة الذكاء الاصطناعي. لكنها تعتمد على جهودها السابقة، بما في ذلك الضمانات على مستوى المنتج مثل الضوابط الأبوية والتنبؤ بالعمر. في العام الماضي، قامت OpenAI بتحديث المبادئ التوجيهية لنماذجها اللغوية الكبيرة – المعروفة باسم Model Spec – لمعالجة كيفية تصرف نماذج الذكاء الاصطناعي الخاصة بها مع المستخدمين الذين تقل أعمارهم عن 18 عامًا.

ومع ذلك، لا تتمتع OpenAI بسجل حافل في حد ذاته. تواجه الشركة عدة دعاوى قضائية رفعتها عائلات الأشخاص الذين ماتوا منتحرين بعد الاستخدام المفرط لـ ChatGPT. غالبًا ما تتشكل هذه العلاقات الخطيرة بعد أن يتخطى المستخدم إجراءات الحماية الخاصة ببرنامج الدردشة الآلي، ولا يمكن اختراق أي حواجز حماية لأي نموذج بشكل كامل. ومع ذلك، فإن هذه السياسات تمثل على الأقل خطوة إلى الأمام، خاصة أنها يمكن أن تساعد المطورين المستقلين.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى