
اليوم ، يتم بناء معظم الذكاء الاصطناعي على الإيمان الأعمى داخل الصناديق السوداء. إنه يتطلب من المستخدمين أن يكون لديهم الإيمان غير الشائع في شيء لا شفاف أو مفهوم.
تتحرك الصناعة بسرعة الاعوجاج ، حيث تستخدم التعلم العميق لمعالجة كل مشكلة ، والتدريب على مجموعات البيانات التي يمكن أن يتتبعها عدد قليل من الناس ، على أمل عدم مقاضاة أي شخص. تم تطوير نماذج الذكاء الاصطناعى الأكثر شعبية خلف الأبواب المغلقة ، مع وثائق غير واضحة وترخيص غامض ومحدودة الرؤية في مصدر بيانات التدريب. إنها فوضى – نعلمها جميعًا – وستحصل فقط على فوضى إذا لم نتبع نهجًا مختلفًا.
هذا “القطار الآن ، الاعتذار في وقت لاحق” عقلية غير مستدامة. إنه يقوض الثقة ، ويزيد من المخاطر القانونية ، ويبطئ الابتكار ذي معنى. نحن لسنا بحاجة إلى مزيد من الضجيج. نحتاج إلى أنظمة حيث يكون التصميم الأخلاقي أساسيًا.
الطريقة الوحيدة التي سنصل بها هي تبني الروح الحقيقية للمصدر المفتوح وجعل الكود الأساسي ومعلمات النماذج وبيانات التدريب المتاحة لأي شخص لاستخدام ودراسة وتعديل وتوزيع. زيادة الشفافية في تطوير نموذج الذكاء الاصطناعى سوف تعزز الابتكار وتضع أساسًا أقوى للخطاب المدني حول سياسة الذكاء الاصطناعي والأخلاق.
الشفافية مفتوحة المصدر تمكن المستخدمين
التحيز هو حتمية تقنية في بنية نماذج التعلم الكبيرة الحالية (LLMS). إلى حد ما ، فإن عملية “التدريب” بأكملها ليست سوى حساب مليارات التحيزات الصغيرة التي تتماشى مع محتويات مجموعة بيانات التدريب.
إذا أردنا محاذاة الذكاء الاصطناعي مع القيم الإنسانية ، بدلاً من التثبيت على الرنجة الحمراء لـ “التحيز” ، يجب أن يكون لدينا شفافية حول التدريب. ستكشف مجموعات البيانات المصدر ، ومطالبات الضبط والاستجابات ، ومقاييس التقييم بدقة عن قيم وافتراضات المهندسين الذين يقومون بإنشاء نموذج الذكاء الاصطناعي.
النظر في مدرس اللغة الإنجليزية في المدرسة الثانوية باستخدام أداة منظمة العفو الدولية لتلخيص شكسبير لأدلة المناقشة الأدبية. إذا قام مطور الذكاء الاصطناعى بتطهير الشاعر من أجل الحساسيات الحديثة ، فإن تصفية اللغة التي يعتبرونها شخصياً غير لائقة أو مثيرة للجدل ، فهي ليست مجرد تعديل الإخراج – فهي إعادة كتابة التاريخ.
من المستحيل جعل نظام الذكاء الاصطناعى مصمم خصيصًا لكل مستخدم واحد. إن محاولة القيام بذلك قد قادت رد الفعل العنيف الأخير ضد Chatgpt لكونه “sycophanty”. لا يمكن تحديد القيم من جانب واحد على مستوى تقني منخفض ، وبالتأكيد ليس فقط من قبل عدد قليل من مهندسي الذكاء الاصطناعي. بدلاً من ذلك ، يجب على مطوري الذكاء الاصطناعى توفير الشفافية في أنظمتهم بحيث يمكن للمستخدمين والمجتمعات والحكومات اتخاذ قرارات مستنيرة حول أفضل طريقة لمحاذاة الذكاء الاصطناعي مع القيم المجتمعية.
المصدر المفتوح سوف يعزز ابتكار الذكاء الاصطناعي
صرحت شركة الأبحاث Forrester بأن المصادر المفتوحة يمكن أن تساعد الشركات على “تسريع مبادرات الذكاء الاصطناعي ، وتقليل التكاليف ، وزيادة الانفتاح المعماري” ، مما يؤدي في النهاية إلى نظام بيئي أكثر ديناميكية وشاملة.
تتكون نماذج الذكاء الاصطناعي من أكثر من مجرد رمز البرنامج. في الواقع ، فإن رمز معظم النماذج متشابه للغاية. ما يميزهم بشكل فريد هو مجموعات بيانات الإدخال ونظام التدريب. وبالتالي ، يتطلب التطبيق الصادق فكريًا لمفهوم “المصدر المفتوح” إلى الذكاء الاصطناعي الكشف عن نظام التدريب وكذلك رمز المصدر النموذجي.
لطالما كانت حركة البرامج المفتوحة المصدر أكثر من مجرد مكوناتها التقنية. يتعلق الأمر بكيفية تجميع الناس لتشكيل مجتمعات الابتكار الموزعة والإشراف الجماعي. تعد لغة برمجة Python – وهي أساس لمنظمة العفو الدولية الحديثة – مثالًا رائعًا. تطورت Python من لغة برمجة بسيطة إلى نظام بيئي غني يشكل العمود الفقري لمعالجة البيانات الحديثة و AI. لقد فعل ذلك من خلال مساهمات لا حصر لها من الباحثين والمطورين والمبتكرين – وليس تفويضات الشركات.
يمنح المصدر المفتوح الجميع إذنًا للابتكار ، دون تثبيت أي شركة واحدة كحارس بوابة. تستمر هذه الروح نفسها من الابتكار المفتوح اليوم ، مع أدوات مثل Lumen AI ، التي تقدم الديمقراطية إمكانيات AI المتقدمة ، مما يسمح للفرق بتحويل البيانات من خلال اللغة الطبيعية دون الحاجة إلى خبرة فنية عميقة.
إن أنظمة الذكاء الاصطناعى التي نبنيها تتراجع للغاية بحيث لا يمكن أن تظل مخفية خلف الأبواب المغلقة ومعقدة للغاية بحيث لا يمكن أن تحكمها دون تعاون. ومع ذلك ، سنحتاج أكثر من رمز مفتوح إذا كنا نريد أن تكون الذكاء الاصطناعي جديرة بالثقة. نحتاج إلى حوار مفتوح بين المؤسسات والمحافظة والمجتمعات التي تخدمها هذه الأدوات لأن الشفافية دون مخاطر المحادثة المستمرة تصبح مجرد أداء. تظهر Trust Real عندما يقوم أولئك الذين يقومون ببناء التكنولوجيا بالتفاعل بنشاط مع أولئك الذين ينشرونها وأولئك الذين تؤثر على حياتهم ، مما يخلق حلقات التعليقات التي تضمن أن أنظمة الذكاء الاصطناعى تظل متوافقة مع القيم الإنسانية المتطورة والاحتياجات المجتمعية.
AI Open Source AI أمر لا مفر منه وضروري للثقة
بدأت الثورات التكنولوجية السابقة مثل أجهزة الكمبيوتر الشخصية والإنترنت مع عدد قليل من البائعين الملكية ولكنها نجحت في النهاية بناءً على البروتوكولات المفتوحة والابتكار الديمقراطي بشكل كبير. هذا استفاد من كل من المستخدمين والشركات التي تهدف إلى الربح ، على الرغم من أن الأخير غالباً ما خاضوا للحفاظ على الأمور ملكية لأطول فترة ممكنة. حاولت الشركات حتى التخلي عن التقنيات المغلقة “مجانًا” ، تحت الانطباع الخاطئ بأن التكلفة هي المحرك الرئيسي لاعتماد المصدر المفتوح.
ديناميكية مماثلة تحدث اليوم. هناك العديد من نماذج الذكاء الاصطناعى المجانية المتاحة ، ولكن يتم ترك المستخدمين للتصارع مع أسئلة الأخلاق والمواءمة حول هذه النماذج ذات الصبغة السوداء. لمجتمعات الوثوق بتكنولوجيا الذكاء الاصطناعي ، فإن الشفافية ليست اختيارية. هذه الأنظمة القوية تترافق مع البقاء مخفيًا خلف الأبواب المغلقة ، وستثبت مساحة الابتكار من حولها في النهاية معقدة للغاية بحيث لا تخضع لبعض الجهات الفاعلة المركزية.
إذا أصرت شركات الملكية على التعتيم ، فإنها تقع على مجتمع المصدر المفتوح لإنشاء البديل.
يمكن لتكنولوجيا الذكاء الاصطناعى أن تتبع مسار السلع نفسه كتقنيات سابقة. على الرغم من كل الصحافة الزائدية حول الذكاء العام الاصطناعي ، هناك حقيقة بسيطة وعميقة حول LLMS: يمكن تحويل الخوارزمية لتحويل مجموعة رقمية إلى مادة فكر واضحة ومتاحة بحرية. يمكن لأي شخص القيام بذلك ، بالنظر إلى وقت حساب. هناك عدد قليل جدًا من الأسرار في الذكاء الاصطناعي اليوم.
يمكن بناء مجتمعات الابتكار المفتوحة حول العناصر الأساسية لـ AI الحديثة: الكود المصدري ، والبنية التحتية للحوسبة ، والأهم من ذلك ، البيانات. يقع على عاتقنا ، كممارسين ، للإصرار على الأساليب المفتوحة تجاه الذكاء الاصطناعي ، وعدم صرف انتباههم عن طريق الفاكس “الحرة” فقط.
بيتر وانغ هو رئيس منظمة العفو الدولية وموظف الابتكار في أناكوندا.








