
كشفت شركة الذكاء الاصطناعي (AI) الناشئة عن إطار عمل “مستهدف” يوم الاثنين ، واقترح سلسلة من قواعد الشفافية لتطوير نماذج الذكاء الاصطناعي.
يسعى الإطار إلى إنشاء “متطلبات إفصاح واضحة لممارسات السلامة” مع بقاء “الوزن الخفيف والمرن” ، أكدت الشركة في بيان صحفي.
“الذكاء الاصطناعى يتقدم بسرعة” ، كتب. “في حين أن الصناعة والحكومات والأوساط الأكاديمية وغيرها تعمل على تطوير معايير السلامة المتفق عليها وأساليب التقييم الشاملة-وهي عملية قد تستغرق شهورًا إلى سنوات-نحتاج إلى خطوات مؤقتة لضمان تطوير الذكاء الاصطناعى القوي للغاية بشكل آمن ومسؤولية وشفافية.”
لن تنطبق القواعد المقترحة للأنثروبور إلا على أكبر مطوري النماذج الحدودية أو نماذج الذكاء الاصطناعى الأكثر تقدماً.
سيطلبون من المطورين تطوير وإصدار إطار تنمية آمن علنًا ، وتفصيل كيفية تقييم وتخفيف المخاطر غير المعقولة. سيكون المطورين ملزمين أيضًا بنشر بطاقة النظام ، وتلخيص إجراءات الاختبار والتقييم.
وأضافت الشركة: “يمكن أن تساعد متطلبات الشفافية لأطر التنمية الآمنة وبطاقات النظام في منح صانعي السياسات الأدلة التي يحتاجون إليها لتحديد ما إذا كان هناك ما يبرر تنظيم مزيد من التنظيم ، بالإضافة إلى تزويد الجمهور بمعلومات مهمة حول هذه التكنولوجيا الجديدة القوية”.
يأتي الإطار المقترح لشركة الذكاء الاصطناعى في أعقاب الهزيمة الأسبوع الماضي عن بند في مشروع قانون الرئيس ترامب للإنفاق والإنفاق الذي سعى في البداية إلى حظر لائحة الذكاء الاصطناعي لمدة 10 سنوات.
خرج المدير التنفيذي للأنثروبور داريو أمودي في الشهر الماضي ، ووصفه بأنه “صدق كبير جدًا” لتخفيف مخاطر التكنولوجيا المتطورة بسرعة. تم تجريد وقف منظمة العفو الدولية في نهاية المطاف من مشروع قانون المصالحة قبل أن يمر مجلس الشيوخ.
حصل إطار الشركة على الثناء من مجموعة Ai Ad Advocacy American للابتكار المسؤول (ARI) ، والتي وصفت أنثروبورًا عن “نقل النقاش من ما إذا كان ينبغي أن يكون لدينا لوائح منظمة العفو الدولية لما ينبغي أن تكون عليه هذه اللوائح”.
وقال إريك غاستفيس ، المدير التنفيذي في آري ، في بيان “لقد سمعنا العديد من المديرين التنفيذيين يقولون إنهم يريدون لوائح ، ثم أسقطوا أي شيء محدد يتم اقتراحه – لذلك من الجيد رؤية خطة ملموسة قادمة من الصناعة”.
“إن إطار عمل الإنسان يطور بعض متطلبات الشفافية الأساسية التي نحتاجها ، مثل إصدار خطط لتخفيف المخاطر ومحاسبة المطورين على هذه الخطط” ، تابع. “نأمل أن يجلب هذا المختبرات الأخرى إلى الطاولة في المحادثة حول شكل لوائح الذكاء الاصطناعى.”








