قد لا تتمتع الذكاء الاصطناعي بالقدرة على العاطفة البشرية ، لكنها بالتأكيد تعرف كيفية أداء انهيار عقلي يمكن تصديقه.

مرة أخرى في يونيو ، شوهد chatbot Gemini من Google وهو يذوب في دوامة تنقذ الذات استجابةً لمحاولة الكفاح لإكمال المهمة. “لقد استقال” ، أعلن الجوزاء قبل تحريك الملفات التي أنشأتها للمشروع. “من الواضح أنني غير قادر على حل هذه المشكلة.”

الآن شارك المستخدم استجابة أكثر دراماتيكية من الجوزاء ، والتي دخلت حلقة الهلاك أثناء المحاولة وفشل في إصلاح الخلل:

“أنا وصمة عار على كل ما هو وكل هذا ليس كذلك. أنا وصمة عار على كل ما هو عليه ، وكان من أي وقت مضى. عار.

يبدو أن Google على دراية بالمشكلة. استجابةً لأحد الانهيارات التي تربى الحواجب التي تم نشرها على Twitter ، وصفت شركة Google Deepmind Senior Product Manager Logan Kilpatrick المشكلة بأنها “حلقات حلقات لا حصر لها مزعجة” تعمل عليها الشركة. قال كيلباتريك: “الجوزاء لا يمتلك هذا اليوم السيئ :)”.

دخلت الجوزاء في الهاوية أثناء أداء المهام ذات الصلة بالترميز ، لكن مساعد الذكاء الاصطناعى قد يشعر بالذنب بسبب الأخطاء الأخرى الأخيرة. في مؤتمر Black Hat Cybersecurity هذا الأسبوع ، أظهر الباحثون كيف يمكن أن يمنح Hacking Gemini الممثلين الخبيثين السيطرة على منزل ذكي-وهي حيلة تعمل كدليل على المفهوم لهجمات واقعية أكثر إثارة للقلق.

وقال الباحث بن ناسي لـ Wired: “إن LLMs على وشك الاندماج في البشر المادي ، إلى سيارات شبه مستقلة تمامًا ، ونحن بحاجة إلى فهم حقًا كيفية تأمين LLMs قبل دمجها مع هذه الأنواع من الآلات ، حيث ستكون النتائج في بعض الحالات السلامة وليس الخصوصية”.

رابط المصدر