
هل يمكن أن يكون الذكاء الاصطناعي هو الحل لمشكلة إنتاجية المملكة المتحدة؟ يعتقد أكثر من نصف (58 ٪) من المؤسسات ذلك ، حيث يعاني الكثيرون من مجموعة متنوعة من الفوائد المتعلقة بالنيابة بما في ذلك زيادة الابتكار والمنتجات أو الخدمات المحسنة وعلاقات العملاء المعززة.
لا تحتاجني لي أن أخبرك بذلك – فمن المحتمل أنك واحد من العمال البريطانيين البالغ عددهم 7 ملايين من العمال الذين يستخدمون الذكاء الاصطناعي بالفعل في مكان العمل. سواء كنت تقوم بحفظ بضع دقائق على رسائل البريد الإلكتروني ، أو تلخيص مستند ، أو سحب رؤى من البحث ، أو إنشاء أتمتة سير العمل.
ومع ذلك ، في حين أن الذكاء الاصطناعى هو مصدر حقيقي للفرص للشركات وموظفيها ، فإن الضغط على المؤسسات لتبنيه بسرعة يمكن أن يؤدي عن غير قصد إلى زيادة مخاطر الأمن السيبراني. قابل الظل الذكاء الاصطناعي.
ما هو Shadow AI؟
عند الشعور بالحرارة لفعل المزيد مع أقل ، يتطلع الموظفون إلى Genai لتوفير الوقت وجعل حياتهم أسهل-مع 57 ٪ من العاملين في المكاتب يلجأون على مستوى العالم إلى تطبيقات الذكاء الاصطناعى في الطرف الثالث في المجال العام. ولكن عندما يبدأ الموظفون في جلب تقنيتهم الخاصة إلى العمل دون موافقةها ، فإن Shadow AI يرسل رأسه.
اليوم ، هذه مشكلة حقيقية للغاية ، حيث يستخدم ما يصل إلى 55 ٪ من العمال العالميين أدوات الذكاء الاصطناعى غير المعتمدين أثناء العمل ، و 40 ٪ باستخدام تلك التي تم حظرها بشكل مباشر من قبل منظمتهم.
علاوة على ذلك ، يبحث الإنترنت عن مصطلح “Shadow AI” في الارتفاع-قفز بنسبة 90 ٪ على أساس سنوي. هذا يدل على مدى “تجريب” الموظفين مع Genai – وكيف يتم تعليق أمن وتسمع المنظمة بشكل غير مستقر في التوازن.
المخاطر الأساسية المرتبطة بالظلال الذكاء
إذا كانت منظمات المملكة المتحدة ستوقف هذا التهديد المتطور بسرعة في مساراتها ، فيجب عليها أن تستيقظ على تهديد الظل الذكاء – وبسرعة. وذلك لأن استخدام LLMs داخل المنظمات يكتسب السرعة ، مع أكثر من 562 شركة في جميع أنحاء العالم تتفاعل معهم العام الماضي.
على الرغم من هذا الارتفاع السريع في حالات الاستخدام ، فإن 65 ٪ من المنظمات لا تزال لا تفهم الآثار المترتبة على Genai. لكن كل أداة غير معروضة تؤدي إلى نقاط ضعف كبيرة تشمل (على سبيل المثال لا الحصر):
1. تسرب البيانات
عند استخدامها دون بروتوكولات الأمان المناسبة ، تثير أدوات Shadow AI مخاوف جدية بشأن ضعف المحتوى الحساس ، على سبيل المثال تسرب البيانات من خلال تعلم المعلومات في LLMs.
2. مخاطر التنظيمية والامتثال
تعد الشفافية حول استخدام الذكاء الاصطناعى أمرًا أساسيًا لضمان ليس فقط سلامة محتوى الأعمال ، ولكن البيانات الشخصية والسلامة للمستخدمين. ومع ذلك ، تفتقر العديد من المنظمات إلى الخبرة أو المعرفة حول المخاطر المرتبطة بـ AI و/أو يتم ردعها بسبب قيود التكلفة.
3. إدارة الأدوات الفقيرة
يتمثل التحدي الخطير لفرق الأمن السيبراني في الحفاظ على كومة تقنية عندما لا يعرفون من يستخدم ما – خاصة في نظام تكنولوجيا المعلومات المعقد. بدلاً من ذلك ، هناك حاجة إلى إشراف شامل ويجب أن يكون لدى فرق الأمن رؤية والسيطرة على جميع أدوات الذكاء الاصطناعي.
4. تحيز إدامة
الذكاء الاصطناعى فعال فقط مثل البيانات التي تتعلمها من البيانات المعيبة يمكن أن تؤدي إلى إدامة التحيزات الضارة في استجاباتها. عندما يستخدم الموظفون شركات الظل الذكاء الاصطناعى ، تكون شركات AI معرضة لخطر ذلك – حيث لا يتم إشرافها على البيانات التي تعتمد عليها مثل هذه الأدوات.
تبدأ المعركة ضد الظل AI بالوعي. يجب أن تعترف المنظمات بأن هذه المخاطر حقيقية للغاية قبل أن تتمكن من تمهيد الطريق للحصول على طرق أفضل للعمل والأداء الأعلى – بطريقة آمنة وموجهة.
احتضان ممارسات الغد ، وليس بالأمس
لإدراك إمكانات الذكاء الاصطناعى ، يجب على صانعي القرار إنشاء بيئة متوازنة محكومة تضعهم في وضع آمن – حيث يمكنهم البدء في تجربة عمليات جديدة مع الذكاء الاصطناعى بأمان وأمان. على الرغم من ذلك ، يجب أن يكون هذا النهج موجودًا في بنية ثقة صفرية-والتي تعطي الأولوية للعوامل الأمنية الأساسية.
لا ينبغي أن يعامل الذكاء الاصطناعى باعتباره الترباس. يتطلب الاستفادة من ذلك بشكل آمن بيئة تعاونية تعطي الأولوية للسلامة. هذا يضمن أن حلول الذكاء الاصطناعى تعزز – لا تعيق – إنتاج المحتوى. تساعد الأتمتة التكيفية المؤسسات على التكيف مع الظروف المتغيرة والمدخلات والسياسات ، وتبسيط النشر والتكامل.
يجب أن تكون أي تجربة أمنية أيضًا تجربة سلسة ، ويجب أن يكون الأفراد في جميع أنحاء العمل أحرارًا في التقديم والحفاظ على سياسات متسقة دون انقطاع إلى اليومية. يشبه مركز عمليات الأمن الحديثة الكشف الآلي للتهديدات والاستجابة التي لا تكتشف التهديدات فحسب ، بل تعالجها مباشرة ، مما يجعل عملية متسقة وفعالة.
تعتبر عناصر التحكم القوية في الوصول هي أيضًا مفتاح إطار العمل صفريًا ، مما يمنع الاستعلامات غير المصرح بها وحماية المعلومات الحساسة. على الرغم من أن سياسات الحوكمة هذه يجب أن تكون دقيقة ، إلا أنها يجب أن تكون مرنة أيضًا لمواكبة اعتماد الذكاء الاصطناعى ، والمطالب التنظيمية ، وأفضل الممارسات المتطورة.
العثور على التوازن الصحيح مع الذكاء الاصطناعي
يمكن أن تكون الذكاء الاصطناعي هي الحل لمشكلة إنتاجية المملكة المتحدة. ولكن لكي يحدث هذا ، تحتاج المؤسسات إلى التأكد من عدم وجود فجوة في استراتيجية الذكاء الاصطناعى حيث يشعر الموظفون بالقيادة من أدوات الذكاء الاصطناعى المتاحة لهم. هذا يؤدي عن غير قصد إلى مخاطر الظل الذكاء الاصطناعي.
يجب أن تكون الطاقة الإنتاجية آمنة ، وتحتاج المؤسسات إلى شيئين لضمان حدوث ذلك – استراتيجية قوية وشاملة لمنظمة العفو الدولية ومنصة واحدة لإدارة المحتوى.
من خلال أدوات AI الآمنة والمتوافقة ، يمكن للموظفين نشر أحدث الابتكارات في سير عمل المحتوى الخاص بهم دون تعريض مؤسستهم للخطر. هذا يعني أن الابتكار لا يأتي على حساب الأمن – وهو توازن ، في عصر جديد من المخاطر والتوقعات المتزايدة ، هو المفتاح.
ندرج أفضل أدوات إدارة تكنولوجيا المعلومات.
تم إنتاج هذه المقالة كجزء من قناة TechRadarpro Expert Insights حيث نعرض أفضل وألمع عقول في صناعة التكنولوجيا اليوم. الآراء المعبر عنها هنا هي آراء المؤلف وليست بالضرورة آراء TechRadarpro أو Future PLC. إذا كنت مهتمًا بالمساهمة ، اكتشف المزيد هنا: https://www.techradar.com/news/submit-your-story-techradar-pro








