
كتقني ، ورجل أعمال متسلسل ، شاهدت صناعات تحويل التكنولوجيا من التصنيع إلى التمويل. لكنني لم أكن أبداً أن أحسب إمكانية التقنية التي تحول نفسها. وهذا ما نواجهه عندما يتعلق الأمر بمنظمة العفو الدولية-احتمال التطور الذاتي.
ما هي الذكاء الاصطناعي المتطورة الذاتي؟ حسنًا ، كما يوحي الاسم ، فإن منظمة العفو الدولية هي التي تحسن نفسها – أنظمة AAI التي تعمل على تحسين مطالباتها الخاصة ، وتعديل الخوارزميات التي تدفعها ، وتكرر باستمرار قدراتها.
الخيال العلمي؟ بعيدا عن ذلك. قام الباحثون مؤخرًا بإنشاء آلة داروين غوديل ، والتي هي “نظام تحفيز ذاتيًا يعدل بشكل تكرار رمزه الخاص.” الاحتمال حقيقي ، إنه قريب – ويتم تجاهله في الغالب من قبل قادة الأعمال.
وهذا خطأ. يحتاج قادة الأعمال إلى إيلاء اهتمام وثيق إلى الذكاء الاصطناعى المتطورة ذاتيا ، لأنه يشكل مخاطر يجب عليهم معالجتها الآن.
الذكاء الاصطناعى المتطورة الذاتي مقابل Agi
من المفهوم أن قادة الأعمال يتجاهلون الذكاء الاصطناعى الذاتي ، لأن القضايا التي يثيرها تقليديًا قد تمت معالجتها في سياق الذكاء العام الاصطناعي (AGI) ، وهو أمر مهم ، ولكن أكثر من مقاطعة علماء الكمبيوتر والفلاسفة.
من أجل أن نرى أن هذه قضية تجارية ، وقضية مهمة للغاية ، علينا أولاً أن نميز بوضوح بين الأمرين.
الذكاء الاصطناعى المتطورة الذاتييشير إلى الأنظمة التي تعدل بشكل مستقل التعليمات البرمجية أو المعلمات أو عمليات التعلم الخاصة بها ، وتحسين داخل مجالات محددة دون تدخل بشري. فكر في منظمة العفو الدولية التي تعمل على تحسين سلاسل التوريد التي تقوم بتحسين خوارزمياتها لخفض التكاليف ، ثم تكتشف طرق التنبؤ الجديدة – بين عشية وضحاها.
AGI (الذكاء العام الاصطناعي) يمثل الأنظمة ذات التفكير البشري في جميع المجالات ، قادرة على كتابة رواية أو تصميم جسر بسهولة. وعلى الرغم من أن AGI لا يزال نظريًا إلى حد كبير ، إلا أن الذكاء الاصطناعى الذي يتطور ذاتيًا هنا الآن ، حيث يعيد تشكيل الصناعات بهدوء من الرعاية الصحية إلى الخدمات اللوجستية.
فخ الإقلاع السريع
واحدة من المخاطر المركزية الناتجة عن الذكاء الاصطناعى في التطور الذاتي هو خطر إقلاع الذكاء الاصطناعي.
تقليديًا ، يشير إقلاع الذكاء الاصطناعي إلى العملية التي من خلالها الانتقال من عتبة معينة من القدرة (غالبًا ما نوقشت على أنها “مستوى الإنسان”) إلى كونها خارقة في السوبران وقادرة بما يكفي للسيطرة على مصير الحضارة.
كما قلنا أعلاه ، نعتقد أن مشكلة الإقلاع هي في الواقع قابلة للتطبيق على نطاق أوسع ، وهي مهمة على وجه التحديد للأعمال. لماذا؟
النقطة الأساسية بسيطة-الذكاء الاصطناعي المتطورة الذاتية يعني أنظمة الذكاء الاصطناعى التي تحسن نفسها. وهذا الاحتمال لا يقتصر على أنظمة الذكاء الاصطناعى الأوسع التي تحاكي الذكاء البشري. ينطبق على جميع أنظمة الذكاء الاصطناعى تقريبًا ، حتى أنظمة النطاقات الضيقة ، على سبيل المثال أنظمة الذكاء الاصطناعى المصممة حصريًا لإدارة خطوط الإنتاج أو إجراء تنبؤات مالية وما إلى ذلك.
بمجرد أن ندرك إمكانية انطلاق الذكاء الاصطناعي داخل المجالات الأضيق ، يصبح من الأسهل رؤية الآثار الضخمة التي تتمتع بها أنظمة الذكاء الاصطناعية ذاتية التحسين. سيناريو الإقلاع السريع-حيث تنفجر قدرات الذكاء الاصطناعى بشكل كبير داخل مجال معين أو حتى منظمة معينة-يمكن أن تجعل المنظمات قديمة منذ أسابيع وليس سنوات.
على سبيل المثال ، تتطور تخيل chatbot من AI من شركة AI من التعامل مع الاستفسارات الأساسية للتنبؤ والتأثير على سلوك العملاء على وجه التحديد لدرجة أنها تحقق معدلات تحويل 80 ٪+ من خلال تفاعلات مخصصة تمامًا. لا يمكن للمنافسين الذين يستخدمون الأساليب التقليدية أن يتطابق مع هذه الرؤية النفسية ويفقدون العملاء بسرعة.
تعتمد المشكلة على كل مجال من مجالات الأعمال: في غضون أشهر ، يمكن أن تقزم القدرات التشغيلية لمنافسك. تصبح خطتك الإستراتيجية لمدة خمس سنوات غير ذات صلة ، ليس لأن الأسواق تحولت ، ولكن بسبب قدراتها التي تطورت من الذكاء الاصطناعي الذي لم تتوقعه.
عندما تتطور الأنظمة الداخلية إلى ما وراء السيطرة
تواجه المنظمات مخاطر خطيرة على قدم المساواة من أنظمة الذكاء الاصطناعى الخاصة بها تتطور إلى ما وراء آليات التحكم. على سبيل المثال:
- فشل مراقبة: لا يمكن لفرق تكنولوجيا المعلومات مواكبة التعديلات الذاتي منظمة العفو الدولية التي تحدث بسرعة الآلة. تصبح المراجعات الفصلية التقليدية بلا معنى عندما تكرر الأنظمة آلاف المرات في اليوم.
- فشل الامتثال: التغييرات المستقلة تتجاوز عمليات الموافقة التنظيمية. كيف يمكنك الحفاظ على امتثال SOX عندما تقوم الذكاء الاصطناعي المالي بتعديل خوارزميات تقييم المخاطر الخاصة بها دون إذن؟
- فشل الأمن: أنظمة التطور الذاتي تقدم نقاط الضعف التي لم تكن أطراف الأمن السيبرانية مصممة للتعامل معها. يحتمل أن يخلق كل تعديل ناقلات هجوم جديدة.
- فشل الحوكمة: تفقد المجالس الرقابة ذات مغزى عندما تتطور الذكاء الاصطناعي بشكل أسرع مما يمكن أن تلبي التغييرات أو فهمها. يجد المديرون أنفسهم أنظمة تحكم لا يمكنهم فهمها.
- فشل الاستراتيجية: ينهار التخطيط طويل الأجل حيث يعيد الذكاء الاصطناعي كتابة افتراضات العمل الأساسية على الدورات الأسبوعية. آفاق التخطيط الاستراتيجي تتقلص من سنوات إلى أسابيع.
ما وراء المنظمات الفردية ، يمكن لقطاعات السوق بأكملها زعزعة الاستقرار. صناعات مثل الاستشارات أو الخدمات المالية – التي يتم بناؤها على عدم تناسق المعلومات – تهديدات وجودية إذا انتشرت إمكانيات الذكاء الاصطناعى بسرعة ، مما يجعل مقترحات القيمة الأساسية قديمة بين عشية وضحاها.
كارثة للتحضير
في كتابناتجاوز: فتح الإنسانية في عصر الذكاء الاصطناعي، نقترح منهجية الرعاية – التصورات ، والتقييم ، والتنظيم ، والخروج – لتوقع وتخفيف مخاطر الذكاء الاصطناعي بشكل منهجي.
الكارثة ليست تشاؤم. إنه التبصر الاستراتيجي المطبق على عدم اليقين التكنولوجي غير المسبوق. ويجبر المنهجية على القادة على طرح أسئلة غير مريحة: ماذا لو بدأت الذكاء الاصطناعي لدينا في إعادة كتابة التعليمات البرمجية الخاصة بها لتحسين الأداء بطرق لا نفهمها؟ ماذا لو بدأت الذكاء الاصطناعي لدينا في التعامل مع الأمن السيبراني أو الامتثال القانوني أو الإرشادات الأخلاقية كقيود تحسين للعمل بدلاً من القواعد المراد متابعتها؟ ماذا لو بدأت في متابعة الأهداف ، لم نبرمج بشكل صريح ولكن هذا يخرج من عملية التعلم؟
الأسئلة التشخيصية الرئيسية يجب أن يطرحها كل الرئيس التنفيذي حتى يتمكنوا من تحديد نقاط الضعف التنظيمية قبل أن تصبح تهديدات وجودية هي:
- تقييم فوري: ما هي أنظمة الذكاء الاصطناعي التي لديها قدرات تعديل الذات؟ ما مدى سرعة اكتشاف التغييرات السلوكية؟ ما هي آليات المراقبة التي تتبع تطور الذكاء الاصطناعي في الوقت الفعلي؟
- الاستعداد التشغيلي: هل يمكن أن تتكيف هياكل الحوكمة مع التحولات التكنولوجية الأسبوعية؟ هل تمثل أطراف الامتثال أنظمة تعديل الذات؟ كيف يمكننا إيقاف نظام الذكاء الاصطناعي الموزعة عبر البنية التحتية لدينا؟
- المواقع الاستراتيجية: هل نقوم ببناء أدوات منظمة العفو الدولية أو الأدوات الثابتة؟ ما هي جوانب نموذج الأعمال التي تعتمد على قيود الذكاء الاصطناعي على مستوى الإنسان التي قد تتلاشى فجأة؟
أربعة إجراءات مهمة لقادة الأعمال
بناءً على عملي مع المنظمات التي تنفذ أنظمة الذكاء الاصطناعي المتقدمة ، إليك خمس إجراءات فورية أوصي بها:
- تنفيذ مراقبة الذكاء الاصطناعي في الوقت الحقيقي: إنشاء أنظمة تتبع سلوك الذكاء الاصطناعي على الفور ، وليس كل ثلاثة أشهر. تضمين مفاتيح Kill وحدود القدرة التي يمكن أن توقف الأنظمة الهاربة قبل تلف لا رجعة فيه.
- تأسيس حوكمة رشيقة: تفشل الرقابة التقليدية عندما تتطور الذكاء الاصطناعي يوميًا. تطوير هياكل الحوكمة التكيفية التي تعمل بسرعة التكنولوجيا ، وضمان البقاء على اطلاع على قدرات النظام والتغيرات.
- إعطاء الأولوية للمحاذاة الأخلاقية: تضمين “الدساتير” القائمة على القيمة في أنظمة الذكاء الاصطناعي. اختبر بدقة للتحيزات والاختلال ، والتعلم من إخفاقات مثل أداة التوظيف التمييزية في Amazon.
- سيناريو-خطة بلا هوادة: الاستعداد لسيناريوهات تطور الذكاء الاصطناعي. ما هو ردك إذا كان منافس الذكاء الاصطناعى يفوق فجأة لك؟ كيف تحافظ على العمليات إذا تطورت أنظمتك إلى ما وراء التحكم؟
علامات الإنذار المبكر يجب على كل مسؤول تنفيذي مراقبته
قد يكون الانتقال من التحسن الموجهة للإنسان إلى التطور الذاتي تدريجيًا لدرجة أن المنظمات تفوت اللحظة التي تفقد فيها الرقابة الفعالة.
لذلك ، فإن قادة الأعمال الأذكياء حساسون للعلامات التي تكشف عن مسارات التصعيد المقلقة:
- أنظمة الذكاء الاصطناعي التي توضح قدرات غير متوقعةما وراء المواصفات الأصلية
- أدوات التحسين الآليةتعديل المعلمات الخاصة بهم دون موافقة الإنسان
- تكامل النظام المتقاطعحيث تبدأ أدوات الذكاء الاصطناعي في التواصل بشكل مستقل
- تحسينات الأداءهذا يتسارع بدلاً من الهضبة بمرور الوقت
لماذا لا يمكن أن تنتظر العمل
كما حذر جيفري هينتون ، فإن تنمية الذكاء الاصطناعى غير المرغوب فيها يمكن أن تفوق سيطرة الإنسان بالكامل. الشركات التي تبدأ الإعداد الآن-مع أنظمة مراقبة قوية ، هياكل الحوكمة التكيفية ، والتخطيط الاستراتيجي القائم على السيناريو-سيكون من الأفضل وضعه في وضعه في الازدهار. أولئك الذين ينتظرون إشارات أوضح قد يجدون أنفسهم يتفاعلون مع التغييرات التي لم يعد بإمكانهم التحكم فيها.








