
وعد الذكاء الاصطناعى هو أنه سيحررنا من العمل المزدحم. بدلاً من ذلك ، أصبح التبعية الجديدة. ربما يكون رسالة بريد إلكتروني لم تشعر بها بالكتابة. عصف ذهني لم تشعر بالإلهام لقيادة. الكود الذي سيستغرق ساعات لبرنامج. بيو أو مخطط تفصيلي شعرت صعبًا جدًا.
اعتدت أن تفعل هذه الأشياء بنفسك. ولكن الآن يجعل منظمة العفو الدولية من السهل تخطي الجهد الذي بالكاد تلاحظك أنك تعتمد على تفكيرك. أستخدم الذكاء الاصطناعي لشركات البحث في صندوق المشروع الخاص بي ، والغوص العميق في الصناعات الجديدة والمواضيع التقنية ، وعروض التصميم ، وتسجيل اجتماعاتي. أنا مدافع عن استخدام الذكاء الاصطناعي ومحو الأمية ، ولكن كلما بدأ عملي متشابكًا مع الذكاء الاصطناعي ، كلما بدأت التفكير في أزمة الإدمان الرقمية التي تلوح في الأفق.
لذلك لم أكن مندهشًا لرؤية أن بعض الباحثين قد بدأوا في وضع العلامات الإفراط في الاستخدام القهري من الذكاء الاصطناعى التوليدي على أنه إدمان سلوكي محتمل. ووجدوا أنه “بمرور الوقت ، يمكن أن يؤدي الاعتماد المفرط على الذكاء الاصطناعي إلى إضعاف المرونة المعرفية ، ويقلل من قدرات حل المشكلات وتآكل الاستقلال الإبداعي”. بمعنى آخر ، يمكن أن تعزز الذكاء الاصطناعي القدرة البشرية ، ولكن إذا تم استخدامه دون التحقق ، فقد يبدأ أيضًا في استبدالها.
في عام 2024 ، تم استثمار أكثر من 100 مليار دولار في الشركات الناشئة من الذكاء الاصطناعي على مستوى العالم. ولكن لا يتم إنفاق ما يكفي من المال لفهم أو التخفيف من التأثير النفسي لمنظمة العفو الدولية. في Psymed Ventures ، نريد تغيير هذا من خلال الاستثمار في جيل جديد من الشركات التي تركز على العافية الرقمية ، والمرونة المعرفية ، والصحة العقلية في عصر الذكاء الاصطناعي.
ومع ذلك ، في حين أن الاستثمار في البحث هو حل طويل الأجل ، يمكن للقادة على المدى القصير مكافحة إدمان الذكاء الاصطناعي من خلال مساعدة فرقهم على تنفيذ حدود الذكاء الاصطناعي.
يوقع عليك أنت أو فريقك يتفوق على الذكاء الاصطناعي
كيف تعرف متى أصبح استخدامك الذكاء الاصطناعي ضارًا؟ علامة مبكرة واحدة: لا يمكنك البدء في العمل بدونها. ربما كنت قد قمت بصياغة المذكرات أو حل المشكلات بمفردك ، لكنك تنتظر الآن حتى تمنحك أداة AI موجهًا أو خطة.
يمكن أن يضعف هذا الاعتماد قدرتك على التفكير بشكل مستقل. استخدمت دراسة من معهد ماساتشوستس للتكنولوجيا EEG لمراقبة الأشخاص الذين يستخدمون chatgpt ، أو محرك بحث Google ، أو لا شيء على الإطلاق. من بين 54 موضوعًا اختبارًا ، تم العثور على مستخدمي ChatGPT لديهم أسوأ مشاركة في الدماغ ويلتزمون باستمرار في المستويات العصبية واللغوية والسلوكية. هذه الدراسة الصغيرة هي الخطوة الأولى في الحاجة إلى الدراسات الطولية لتقييم الآثار المحتملة على المدى الطويل على الإدراك والتعلم والتفكير النقدي.
هناك علامة واضحة أخرى على إفراط في استخدام أدوات الذكاء الاصطناعي هي عندما تجد نفسك تقسيم في الاجتماعات لأنك تعرف أن الأداة ستلتقط أو تلخص أو تسليط الضوء على عناصر الإجراءات أو حتى إعطاء ردود في الوقت الفعلي لكي تقولها مباشرة. توضح دراسة الطرق المختلطة 2025 عن التفريغ المعرفي أنه في حين أن تفويض الفهم إلى المساعدات الخارجية يمكن أن يعزز الكفاءة على المدى القصير ، فإنه يقوض الاستدعاء والتفكير المستقل عندما تكون المساعدة غير متوفرة. بمرور الوقت ، يمكن أن يعتمد الاعتماد على هذه الأدوات على قدرتك على اتباع المناقشات المعقدة في الوقت الفعلي والرقص في ثقتك في إصدار أحكام بدون نسخة احتياطية خوارزمية.
يمكن أن تظهر ثقتك المنخفضة عندما تتردد في مشاركة فكرة في اجتماع حتى تقوم بتشغيلها لأول مرة من خلال منظمة العفو الدولية للتحقق من الصحة ، حتى في الموضوعات التي لديك خبرة مباشرة. قد تلاحظ أيضًا نفسك بإعادة مشاريع أو رسائل بريد إلكتروني عدة مرات بناءً على اقتراحات الذكاء الاصطناعي ، حتى عندما كان الإصدار الأصلي صلبًا.
من محو الأمية من الذكاء الاصطناعي إلى حدود الذكاء الاصطناعي
في اندفاع لاعتماد الذكاء الاصطناعي عبر أماكن العمل ، يركز معظم القادة على محو الأمية منظمة العفو الدولية ، دون التفكير في عواقب الاعتماد المفرط. ومع ذلك ، فإن محو الأمية منظمة العفو الدولية تتطلب أيضًا التركيز على حدود الذكاء الاصطناعي. على غرار وقت الشاشة الصحي أو استخدام الهاتف الذكي ، فإن الإرشادات لأنفسنا وموظفينا حول وقت الاعتماد على الذكاء الاصطناعي ومتى نتراجع عن عمد سوف يساعدنا على استخدام هذه الأداة بطريقة تستفيد منها بدلاً من إلحاق الأذى بنا.
الخطوة الأولى الجيدة هي معاملة الذكاء الاصطناعي كمتعاون ، وليس عكازًا. منظمة العفو الدولية مفيدة للغاية للتفكير والتلخيص والصياغة ، ولكن لا ينبغي أن تحل محل التفكير البشري أو الحكم. أحد التحول العملي هو استخدام الذكاء الاصطناعي لدعم تفكيرك ، وليس لبدء ذلك. على سبيل المثال ، إذا كنت تقوم بصياغة تقرير ، فاكتب الوسيطة الرئيسية أو تحدد نفسك قبل تقديم أداة مثل ChatGPT لمساعدتك في تحسين أو توسيع أو اختبارات ما كتبته بالفعل بينما لا تزال تقوم بالتفكير الأساسي والتحليل والهيكلة الخاصة بك.
مثلما نقوم بجدولة التدريبات البدنية ، فإن الأمر يستحق البناء في “التدريبات التناظرية” للدماغ. هذه لحظات خالية من الذكاء الاصطناعى لحل المشكلات أو العصف الذهني أو الكتابة الإبداعية دون أي مساعدة رقمية. قد يعني هذا التجمع على السبورة البيضاء لرسم عمل سير العمل دون أجهزة الكمبيوتر المحمولة ، أو صياغة جداول أعمال الاجتماع أو ملاحظات الاستراتيجية باليد ، أو حل خطأ فني دون وجود مشترك ، أو عقد مناقشات سريعة أو تصميمة العدوات دون أدوات مساعدة رقمية ، أو التزحلق على الوجبات السريعة من الذاكرة قبل التحقق من الملاحظات. هذه الأفعال الصغيرة تحمي الإبداع الإنساني وتحافظ على قدرتنا على التفكير بعمق دون تأثير خوارزمية. فكر في فترات التخلص من السموم من AI ، خاصة بالنسبة للموظفين الأصغر سناً الذين قد يكونون أكثر عرضة لتآكل المهارات.
من المهم أيضًا أن يخوض القادة حيث لا يستخدمون الذكاء الاصطناعي. يجب على كل فريق إنشاء حدود مهمة مثل الذكاء الاصطناعى يمكن استخدامه للبحث العام أو مجموعة ثانية من العيون ، ولكن لم يسبق له مثيل. ابحث عن طرق للحد من تأثيرها على المخاطر العالية أو القرارات التي لا رجعة فيها ، مثل التوظيف أو المحاور الاستراتيجية أو التغييرات في السياسة أو اختيار الاستثمار. يجب أن تكون الذكاء الاصطناعى بمثابة مساعد للبحث والتحليل وليس صانع القرار النهائي. هذا ليس فقط الحراس ضد الاعتماد المفرط على مخرجات الذكاء الاصطناعى ولكن يحافظ أيضًا على المساءلة ، مما يضمن أن الخيارات الحرجة تظل نتاج الحكم الإنساني المتعمد بدلاً من الإجماع الآلي.
تجنب أزمة الإدمان الرقمية معًا
قد يجادل البعض بأن إنفاذ حدود الذكاء الاصطناعي يمكن أن يبطئ التقدم أو تقويض الكفاءة التشغيلية أو المالية للغاية التي تعد بها هذه الأدوات. لكن تجاهل هذه الحدود يخاطر بتكلفة خفية لتآكل المهارات والثقة والتفكير المستقل التي تبقي رجال الأعمال مرونة. إن توفير الوقت اليوم لا معنى له إذا فقد فريقك القدرة على حل المشكلات غدًا.
تشمل الاعتراضات الشائعة الأخرى مخاوف من أن الحدود ستجعل الشركة أقل قدرة على المنافسة ، أو أن الموظفين سوف يتجاهلونها ، أو أن الموظفين المهرة لا يحتاجون إليها. في الواقع ، تدور الحدود حول استخدام الذكاء الاصطناعي بشكل أفضل ، وليس أقل ، من خلال حماية الفرق من الاعتماد المفرط.
لا يمكن للقادة تأطير الحدود ليس كقيود من أعلى إلى أسفل ، ولكن كاستثمار مشترك في القدرة على المدى الطويل من خلال دعوة الموظفين إلى المحادثة حول مكان دعم الذكاء الاصطناعى وأين يجب أن يقود الحكم البشري. يحول هذا النهج التعاوني الدرابزين إلى قاعدة ثقافية ، بدلاً من عبء الامتثال ، ويطمئن الفرق بأن الهدف ليس تجريد الحكم الذاتي ولكن لحمايته.
نعم ، يمكن لمنظمة العفو الدولية أن تجعل العمل أسرع وأرخص ، لكن أماكن العمل الأكثر صحة هي تلك التي تعامل الكفاءة كوسيلة لتعزيز الأشخاص ، وليس استبدالهم.








