
عندما ذهب Chatgpt فيروسية ، هرعت فرق القيادة لفهمها ، لكن موظفيها قد تغلبوا عليهم بالفعل إلى المطاردة. كان العمال يجربون بالفعل أدوات الذكاء الاصطناعى وراء الكواليس ، وذلك باستخدامها لتلخيص الملاحظات ، وأتمتة المهام ، وضرب أهداف الأداء بموارد محدودة. ما بدأ كاختصار الإنتاجية قد تطور إلى قاعدة عمل جديدة.
وفقًا لمؤشر اتجاه عمل Microsoft ، يستخدم ثلاثة من كل أربعة موظفين منظمة العفو الدولية في العمل-وحوالي 80 ٪ من مستخدمي الذكاء الاصطناعى في الشركات الصغيرة والمتوسطة الحجم يجلبون أدواتهم الخاصة إلى مكان العمل ؛ هذا الرقم هو 78 ٪ للمنظمات الكبيرة. تتراوح هذه الأدوات من مولدات النصوص ، مثل chatgpt ، إلى منصات الأتمتة وبرامج التصميم التي تعمل بالنيابة.
تُعرف هذه الظاهرة من أسفل إلى أعلى باسم إحضار الذكاء الاصطناعي الخاص بك ، أو Byoai. إنه يعكس الأيام الأولى من سياسات “إحضار جهازك” (BYOD) ، عندما بدأ الموظفون في استخدام هواتفهم الذكية الشخصية وأجهزة الكمبيوتر المحمولة لمهام العمل – غالبًا قبل أن يكون لدى أرباب العمل بروتوكولات لإدارتها. تطورت هذه السياسات في نهاية المطاف لمعالجة الأمن وخصوصية البيانات والوصول إلى مخاوف التحكم.
ولكن مع BYOAI ، فإن المخاطر أعلى.
بدلاً من الأجهزة المادية ، يقوم الموظفون بتقديم خوارزميات في سير العمل – لا تم فحصها من قبلها أو الامتثال أو القانونية. وفي المناخ التنظيمي سريع الحركة اليوم ، يمكن أن يخلق ذلك مخاطر جادة: اعترف ما يقرب من نصف الموظفين الذين يستخدمون الذكاء الاصطناعى في العمل أنهم كانوا يفعلون ذلك بشكل غير لائق ، مثل الثقة في جميع الإجابات التي تعطيها AI دون التحقق منها ، أو عهدها بمعلومات حساسة.
الاتجاه BYOAI ليس سلوكًا هامدًا أو بدعة تقنية عابرة. إنها حقيقة سريعة النمو في أماكن العمل الحديثة ، مدفوعة بالموظفين الذين يعانون من الإرهاق ، والفرق التي يعانون من نقص الموارد ، وإمكانية الوصول المتزايد لأدوات الذكاء الاصطناعى القوية. بدون سياسات أو إشراف ، يأخذ العمال الأمور بأيديهم ، وغالبًا ما يستخدم أصحاب عملهم. وعلى الرغم من أن النية قد تكون الإنتاجية ، فإن ذلك يمكن أن يعرض الشركات لتسرب البيانات ومشاكل الأمن الأخرى.
تتسع فجوة الامتثال
سواء أكان فريقًا تسويقيًا يقوم بإدخال بيانات العميل في chatbot ، أو قيادة عمليات سير العمل الأتمتة مع المكونات الإضافية ، يمكن لهذه الأدوات فتح الباب بهدوء لانتهاكات الخصوصية والقرارات المتحيزة والانهيار التشغيلي.
يقول ما يقرب من ستة من كل عشرة موظفين إنهم ارتكبوا أخطاء في العمل بسبب أخطاء الذكاء الاصطناعى ، ويستخدم الكثير منها بشكل غير صحيح (57 ٪ يعترفون بالأخطاء ، و 44 ٪ من إساءة استخدامها).
ومع ذلك ، وفقًا لتقرير صدر عام 2024 من Deloitte الذي شملها المنظمات في طليعة الذكاء الاصطناعي ، أبلغت 23 ٪ فقط من هذه المنظمات عن شعورها بالاستعداد للغاية لإدارة المخاطر المتعلقة بالنيابة. و 6 ٪ فقط ، وفقًا لـ KPMG ، كان لديهم فريق مخصص يركز على تقييم مخاطر الذكاء الاصطناعي وتنفيذ الدرابزين.
“عندما يستخدم الموظفون خدمات الذكاء الاصطناعي الخارجية دون معرفة أصحاب العمل … نميل إلى التفكير في مخاطر مثل فقدان البيانات ، وتسربات الملكية الفكرية ، وانتهاكات حقوق الطبع والنشر ، (و) الانتهاكات الأمنية” ، كما يقول أليسون سبانيولو ، كبير موظفي الخصوصية والمدير الإداري الأول في شركة Guidepost Solution ، وهي شركة متخصصة في التحقيقات والامتثال التنظيمي ، والتوافد التنظيمي.
كيف تتقدم الشركات ذات التفكير الأمامي
بدأت بعض المنظمات في الرد – ليس عن طريق حظر الذكاء الاصطناعي ، ولكن من خلال العمل على تمكين الموظفين من استخدام الذكاء الاصطناعي.
وفقًا لتقرير Deloitte ، فإن 43 ٪ من المؤسسات التي تستخدم الذكاء الاصطناعي تستثمر في عمليات تدقيق الذكاء الاصطناعي الداخلي ، و 37 ٪ من مستخدمي تدريبهم على التعرف على المخاطر والتخفيف من ذلك ، و 33 ٪ يحتفظون بمخزون رسمي لكيفية استخدام Gen AI ، بحيث يمكن للمديرين أن يقودوا بوضوح ، وليس ارتباك.
وفي الوقت نفسه ، يوفر Salesforce للموظفين أدوات AI آمنة وموافقة عليها ، مثل Slack AI و Einstein التي تتكامل مع أنظمة البيانات الداخلية ، مع الحفاظ على حدود صارمة على استخدام البيانات الحساسة وتقديم تدريب منتظم. لدى الشركة أيضًا إطار عمل لتقديم المشورة للشركات الأخرى حول كيفية تطوير سياسة الاستخدام الداخلي لمنظمة العفو الدولية.
تقول رينا ريتشبور ، الشريك في CM Law PLLC ، وهي شركة بوتيك التي تنصح العملاء في قضايا التكنولوجيا الناشئة: “أفضل استراتيجية هي في الواقع فتح خطوط التواصل هذه مع الموظفين”. وتقول إن أصحاب العمل لا ينبغي أن يقولوا لا لمنظمة العفو الدولية ، ولكن بدلاً من ذلك يزود الموظفين بالدرابزين والمعلمات والتدريب. على سبيل المثال ، ربما يطلب أصحاب العمل من الموظفين استخدام البيانات العامة و “تقطيع البيانات التي تكون ملكية أو سرية تجارية أو متعلقة بالعملاء”.
Byoai لن يذهب بعيدا
Byoai ليس مجرد اتجاه تقني. إنه تحدٍ للقيادة.
يجد المديرون الآن أنفسهم يشرفون على كل من إخراج الإنسان والماكينة ، غالبًا دون تدريب رسمي على كيفية إدارة هذا المزيج بفعالية. يجب أن يقرروا متى تكون الذكاء الاصطناعي مناسبًا ، وكيفية تقييم استخدامه ، والتأكد من الحفاظ على كل من المعايير الأخلاقية والأداء.
من الأفضل تقديم الشركات عن طريق التحول من السياسات التفاعلية إلى الثقافات الاستباقية. يحتاج الموظفون إلى تواصل واضح حول ما هو آمن ، وما هو خارج الحدود ، وأين يذهبون للحصول على التوجيه.
يقول Spagnolo: “أعتقد أن وجود سياسة الاستخدام المقبولة من الذكاء الاصطناعي مفيدة أمر مفيد حقًا … يمكنك أن تخبر موظفيك بالضبط ما هي التوقعات ، وما هي المخاطر إذا خرجوا من هذه السياسة ، وما هي العواقب”.
الشركات التي ستحصل على أقصى استفادة من الذكاء الاصطناعى هي تلك التي تتفهم كيفية تمكين موظفيها من استخدام الذكاء الاصطناعي والابتكار معها. هذا يتطلب من القادة التحول من سؤال الموظفين: “هل تستخدم الذكاء الاصطناعي؟” إلى “كيف يمكننا أن ندعمك لاستخدامه بشكل جيد؟”








