
كل مدير تنفيذي أعرفه يريد أن يستخدم فريقهم منظمة العفو الدولية أكثر ، ولسبب وجيه: يمكن أن يتفوق على كل مجال من مجالات أعمالهم وجعل الموظفين أكثر كفاءة. يعد استخدام الموظف من الذكاء الاصطناعى أمرًا ضروريًا ، ولكن عندما يصبح أكثر شيوعًا ، كيف يمكن للشركات تجنب صداع الأمن الكبير؟
وجدت أحدث بيانات SIFT أن 31 ٪ من المستهلكين يعترفون بإدخال المعلومات الشخصية أو الحساسة في أدوات Genai مثل ChatGPT ، و 14 ٪ من هؤلاء الأفراد الذين أبلغوا صراحة دخول أسرار تجارة الشركة. تشمل أنواع أخرى من المعلومات التي يعترف بها الأشخاص المشاركة مع AI chatbots التفاصيل المالية والحقائق غير العامة وعناوين البريد الإلكتروني وأرقام الهواتف والمعلومات حول أصحاب العمل. في جوهرها ، يكشف أن الناس على استعداد بشكل متزايد للثقة في الذكاء الاصطناعي بمعلومات حساسة.
هذه الثقة المفرطة مع الذكاء الاصطناعى لا تقتصر على مشاركة البيانات. إن نفس مستوى الراحة الذي يقود الناس إلى إدخال معلومات العمل الحساسة يجعلهم أيضًا عرضة للعمق والاحتيال الناتج عن الذكاء الاصطناعى في حياتهم الشخصية. وجدت بيانات SIFT أن القلق من أن الذكاء الاصطناعى سيتم استخدامه لعملية الاحتيال قد انخفض شخص ما بنسبة 18 ٪ في العام الماضي ، ومع ذلك فإن عدد الأشخاص الذين يعترفون بالخداع بنجاح قد زاد بنسبة 62 ٪ منذ عام 2024. سواء كان ذلك بمشاركة أسرار تجارية في العمل أو السقوط من أجل الاحتيال في المنزل ، فإن النمط هو نفسه: إن الألفة مع AI تخلق بقع عمياء خطيرة.
فخ الثقة
في كثير من الأحيان في إعداد مكان العمل ، يلجأ الموظفون إلى الذكاء الاصطناعى لمعالجة مشكلة محددة: البحث عن أمثلة لتوزيع اقتراح المبيعات ، أو لصق بريد إلكتروني داخلي على “Punch It Up” ، وتبادل نسخة التسويق غير النهائي للحصول على اقتراحات النغمة ، أو الكشف عن تفاصيل خريطة الطريق المنتج مع روبوت خدمة العملاء للمساعدة في الإجابة على تذكرة معقدة.
غالبًا ما ينبع هذا السلوك من النوايا الحسنة ، سواء كان ذلك يحاول أن يكون أكثر كفاءة أو فائدة أو استجابة. ولكن كما تظهر البيانات ، يمكن أن تخلق الألفة الرقمية إحساسًا كاذبًا بالأمان. الأشخاص الذين يعتقدون أنهم “يحصلون على الذكاء الاصطناعي” هم الأكثر عرضة لتسرب البيانات الحساسة من خلالها أو سوف يكافحون من أجل تحديد المحتوى الضار.
في كل مرة يسقط الموظف السياق غير العام إلى أداة GENAI ، فإنها-تُعرف بشكل أو لا-بإرسال بيانات حساسة للأعمال إلى نظام قد يقوم بتسجيل أو تخزينه أو حتى استخدامه لتدريب المخرجات المستقبلية. ناهيك عن حدوث تسرب بيانات على الإطلاق ، سيكون المتسلل مطلعا على كنز من المعلومات السرية.
إذن ماذا يجب أن تفعل الشركات؟
التحدي مع هذا النوع من التعرض للبيانات هو أن المراقبة التقليدية لن تصطاد هذا. نظرًا لأن هذه الأدوات تستخدم غالبًا خارج إنترانت الشركة – شبكة البرمجيات الداخلية الخاصة بهم – يمكن للموظفين قادرين على إدخال أي بيانات تقريبًا يمكنهم الوصول إليها.
الحقيقة غير المريحة هي أنك ربما لا تستطيع معرفة المعلومات الحساسة التي يشاركها موظفوك مع منصات الذكاء الاصطناعي. على عكس هجوم التصيد الخزلي حيث يمكنك تتبع الخرق ، غالبًا ما يحدث مشاركة بيانات الذكاء الاصطناعي في ظلال الحسابات الشخصية. لكن هذا لا يعني أنه يجب عليك حظر استخدام الذكاء الاصطناعي بشكل مباشر.
حاول استنتاج حجم المشكلة مع استطلاعات الموظفين المجهولة. اسأل: ما هي أدوات AI التي تستخدمها؟ ما هي المهام التي تجدها منظمة العفو الدولية أكثر فائدة؟ وماذا تتمنى أن تفعل الذكاء الاصطناعي؟ على الرغم من أن الموظف قد لا يكشف عن تبادل المعلومات الحساسة مع chatbot ، فإن فهم بشكل عام كيف يستخدم فريقك من الذكاء الاصطناعى تحديد المجالات المحتملة للقلق – والفرص المحتملة.
بدلاً من محاولة تتبع كل مثيل بأثر رجعي ، ركز على الوقاية. حظر AI البطاني ليس واقعيًا ويضع مؤسستك في وضع غير مؤات تنافسي. بدلاً من ذلك ، حدد إرشادات واضحة تميز بين أنواع البيانات المقبولة والمحظورة. قم بتعيين خط أحمر واضح على ما لا يمكن إدخاله في أدوات Genai العامة: بيانات العميل والمعلومات المالية واللغة القانونية والوثائق الداخلية. اجعلها عملية ، وليس بجنون العظمة.
لتشجيع استخدام الذكاء الاصطناعي المسؤول ، تقديم بدائل معتمدة. قم بإنشاء مهام سير عمل منظمة العفو الدولية التي تديرها الشركة لحالات الاستخدام اليومية التي لا تحتفظ بالبيانات أو يتم استخدامها فقط في الأدوات التي لا تستخدم أي مدخلات لتدريب الذكاء الاصطناعي. تأكد من فحص فرق تكنولوجيا المعلومات الخاصة بك جميع أدوات الذكاء الاصطناعي لإدارة البيانات المناسبة. هذا مهم بشكل خاص لأن أنواع الحسابات المختلفة لأدوات الذكاء الاصطناعى لها سياسات مختلفة للاحتفاظ بالبيانات. علاوة على ذلك ، فإنه يساعد الموظفين على فهم المخاطر المحتملة لمشاركة البيانات الحساسة مع AI chatbots.
تشجيع تدريب الموظفين الذي يعالج مخاطر الذكاء الاصطناعي المهني والشخصية. قدم أمثلة في العالم الحقيقي عن كيفية كشف تفاعلات الذكاء الاصطناعى البريء عن غير قصد عن أسرار تجارية ، ولكن أيضًا تثقيف الموظفين حول عمليات الاحتيال التي تعمل بالنيابة التي قد يواجهونها خارج العمل. إن نفس الثقة المفرطة التي تؤدي إلى تسرب بيانات في مكان العمل يمكن أن تجعل الموظفين أهدافًا لمخططات الاحتيال المتطورة ، مما قد يعرض كل من الأمن الشخصي والمهني.
إذا اكتشفت أن المعلومات الحساسة قد تمت مشاركتها مع منصات الذكاء الاصطناعى ، فتصرف بسرعة ، ولكن لا داعي للذعر. قم بتوثيق ما تمت مشاركته ، ومتى ، ومن خلال أي منصة. إجراء تقييم للمخاطر يسأل: ما مدى حساسية المعلومات؟ هل يمكن أن تساوم المواقع التنافسية أو الامتثال التنظيمي؟ قد تحتاج إلى إخطار الأطراف المتأثرة ، اعتمادًا على طبيعة البيانات. ثم ، استخدم هذه الحوادث كفرص تعليمية. راجع كيفية وقوع الحادث وتحديد الضمانات اللازمة.
على الرغم من أن عالم AI chatbots قد تغير منذ عام 2023 ، إلا أن هناك الكثير يمكننا أن نتعلمه من موقف شهدته Samsung قبل بضع سنوات ، عندما يشارك الموظفون في قسم المصدر شبه الموصل ، وملاحظات الاجتماع ، واختبار تسلسلات ChatGPT. هذا البرنامج الخاص المكشوف إلى Openai وتسرب أساليب اختبار الأجهزة الحساسة. كانت استجابة Samsung سريعة: لقد تقيدوا تحميلات ChatGPT لتقليل احتمال مشاركة المعلومات الحساسة ، وإطلاق التحقيقات الداخلية ، وبدأوا في تطوير chatbot منظمة العفو الدولية الخاصة بالشركة لمنع التسريبات المستقبلية.
على الرغم من أن معظم الشركات تفتقر إلى الموارد اللازمة لإنشاء برامج Chatbots نفسها ، إلا أنها يمكن أن تحقق نهجًا مماثلًا من خلال استخدام حساب من فئة المؤسسة يقوم على وجه التحديد باختيار حساباتهم من تدريب الذكاء الاصطناعي.
يمكن أن تحقق الذكاء الاصطناعى مكاسب ضخمة الإنتاجية ، لكن هذا لا يجعل استخدامه خاليًا من المخاطر. ستستفيد المنظمات التي تتوقع ومعالجة هذا التحدي من مزايا الذكاء الاصطناعي مع الحفاظ على أمن معلوماتها الأكثر قيمة. المفتاح هو إدراك أن الثقة المفرطة في الذكاء الاصطناعي تشكل المخاطر داخل وخارج المكتب ، والتحضير وفقًا لذلك.








