تقوم Google بفهرسة المحادثات مع chatgpt التي أرسلها المستخدمون إلى الأصدقاء أو العائلات أو الزملاء – تحويل التبادلات الخاصة المخصصة للمجموعات الصغيرة في نتائج البحث المرئية للملايين.

يمكن للبحث الأساسي في موقع Google باستخدام جزء من الرابط الذي تم إنشاؤه عندما ينقر شخص ما على “مشاركة” على chatgpt الكشف عن المحادثات التي يكشف فيها الناس عن تفاصيل شخصية بعمق ، بما في ذلك النضالات مع الإدمان ، أو تجارب الاعتداء البدني ، أو قضايا الصحة العقلية الخطيرة – حتى في بعض الأحيان تخشى أن نماذج الذكاء الاصطناعي تتجسس عليها. على الرغم من أن هويات المستخدمين لا يتم عرضها بواسطة ChatGPT ، إلا أن البعض يحتمل أن يعرّفوا أنفسهم من خلال مشاركة معلومات شخصية محددة للغاية أثناء الدردشات.

قد ينقر المستخدم على “مشاركة” لإرسال محادثته إلى صديق مقرب عبر WhatsApp أو لحفظ عنوان URL للرجوع إليه في المستقبل. من غير المحتمل أن يتوقعوا أن يؤدي ذلك إلى ظهوره في نتائج بحث Google ، ويمكن الوصول إليها لأي شخص. من غير الواضح ما إذا كان المتضررون يدركون محادثاتهم مع الروبوت يمكن الوصول إليه الآن بشكل علني بعد النقر فوق زر المشاركة ، ويفترض أنهم يفكرون في أنهم يقومون بذلك لجمهور صغير.

تظهر ما يقرب من 4500 محادثات في نتائج البحث عن موقع Google ، على الرغم من أن العديد منها لا يتضمن التفاصيل الشخصية أو تحديد المعلومات. من المحتمل أن هذا ليس العدد الكامل ، حيث لا يجوز لـ Google فهرسة جميع المحادثات. (بسبب الطبيعة الشخصية للمحادثات ، التي الكشف عن بعضها معلومات شخصية عالية بما في ذلك أسماء المستخدمين ومواقعهم والظروف الشخصية ، شركة سريعة يختار عدم الارتباط أو وصفه بتفاصيل كبيرة ، المحادثات مع chatbot.)

إن الاكتشاف يتعلق بشكل خاص بالنظر إلى أن ما يقرب من نصف الأمريكيين في استطلاع يقول إنهم استخدموا نماذج لغة كبيرة للدعم النفسي في العام الماضي. سعى ثلاثة أرباع المستجيبين إلى المساعدة في القلق ، وبحث اثنان من كل ثلاثة عن المشورة بشأن القضايا الشخصية ، وحوالي ستة من كل 10 أراد المساعدة في الاكتئاب. ولكن على عكس المحادثات بينك وبين معالج الحياة الواقعية ، يمكن أن تظهر نصوص المحادثات مع أمثال ChatGPT في بحث Google بسيط.

يقوم Google بفهرسة أي محتوى متاح على الويب المفتوح ومالكي الموقع قادرون على إزالة الصفحات من نتائج البحث. لا يهدف الروابط المشتركة لـ ChatGPT إلى الظهور في البحث افتراضيًا ويجب أن يتم اكتشافها يدويًا من قبل المستخدمين ، الذين يتم تحذيرهم أيضًا من مشاركة المعلومات الحساسة ويمكنهم حذف الروابط المشتركة في أي وقت. (رفض كل من Google و Openai شركة سريعةطلبات التعليق.)

وصف أحد المستخدمين بالتفصيل حياتهم الجنسية والتعاسة التي يعيشون في بلد أجنبي ، مدعيا أنهم كانوا يعانون من اضطراب ما بعد الصدمة (PTSD) وطلب الدعم. ذهبوا إلى تفاصيل دقيقة حول تاريخ عائلاتهم وعلاقاتهم الشخصية مع الأصدقاء وأفراد الأسرة.

تناقش محادثة أخرى انتشار السلوكيات النفسية لدى الأطفال وفي أي عمر يمكنهم إظهاره ، بينما يكشف مستخدم آخر عن أنهم من الناجين من البرمجة النفسية ويتطلعون إلى إلغاء رسم أنفسهم للتخفيف من الصدمة التي شعروا بها.

تقول كاريسا فيليز ، وهي أخلاقية منظمة العفو الدولية في جامعة أكسفورد: “لقد صدمت للتو”. “بصفتي باحثًا للخصوصية ، أدرك تمامًا أن هذه البيانات ليست خاصة ، ولكن بالطبع ،” ليست خاصة “يمكن أن تعني أشياء كثيرة ، وأن Google تقوم بتسجيل هذه المحادثات الحساسة للغاية أمر مذهل.”

لقد أثيرت مخاوف مماثلة من خلال chatbots المتنافسة ، بما في ذلك تلك التي تديرها Meta ، والتي بدأت في مشاركة استعلامات المستخدم مع أنظمة الذكاء الاصطناعى في موجز عام مرئي في تطبيقات AI. ثم قال النقاد إن محو الأمية للمستخدم لم يكن مرتفعًا بما يكفي للاعتراف بمخاطر مشاركة المعلومات الخاصة علنًا – وهو أمر أثبت أنه صحيح فيما بعد مع ظهور التفاصيل الشخصية على الخلاصة الاجتماعية. في ذلك الوقت ، أبرز خبراء السلامة عبر الإنترنت المخاوف حول التباين بين كيفية اعتقاد المستخدمين وظائف التطبيق ، وكيف تجعل الشركات التي تدير التطبيقات فعليًا أنها تعمل.

يخشى Veliz من أن هذا مؤشر على النهج الذي سنرىه في التكنولوجيا الكبيرة عندما يتعلق الأمر بالخصوصية. وتقول: “من المؤكد أيضًا أن هذه الشركة ، Openai ، ليست جديرة بالثقة ، وأنها لا تأخذ الخصوصية على محمل الجد ، بغض النظر عما يقولون”. “ما يهم هو ما يفعلونه.”

الرئيس التنفيذي لشركة Openai Sam Altman حذر في وقت سابق من هذا الشهر يجب ألا يشارك المستخدمون تفاصيلهم الشخصية مع chatgpt لأن Openai “قد يكون مطلوبًا لإنتاج ذلك” إذا اضطرت قانونًا إلى القيام بذلك من قبل المحكمة. وأضاف “أعتقد أن هذا مشدود للغاية”. لم تناقش المحادثة ، مع Podcaster ثيو فون ، محادثات المستخدمين التي تم فتحها عن طيب خاطر لفهرستها بواسطة Openai.

تقول راشيل توباك ، محلل الأمن السيبراني والرئيس التنفيذي لشركة SocialProof Security ، “الحقيقة هي أن العديد من المستخدمين لا يمسكون أن هذه المنصات لديها ميزات يمكن أن تتسرب عن غير قصد أسئلة وقصص ومخاوفهم” أن العديد من المستخدمين لا يمسكون أن هذه المنصات لديها ميزات يمكن أن تتسرب عن غير قصد أسئلة وقصص ومخاوفهم “أن العديد من المستخدمين لا يمسكون أن هذه المنصات لديها ميزات يمكن أن تتسرب عن غير قصد أسئلة وقصص ومخاوفهم” ، هي أن العديد من المستخدمين لا يمسكون أن هذه المنصات لديها ميزات يمكن أن تتسرب بشكل غير قصد أسئلة وقصص ومخاوفهم “.

رابط المصدر