ال نيويورك تايمز تم الإبلاغ عنها اليوم عن وفاة مراهق كاليفورنيا آدم راين ، الذي تحدث مع شاتغبت في الأشهر التي سبقت وفاته. وقال التقرير إن والدا المراهقين قد رفعوا الآن دعوى وفاة غير مشروعة ضد صانع شاتغبت أوبراي ، ويعتقد أنه أول حالة من نوعها.
زعمت دعوى الموت غير المشروعة أن Chatgpt تم تصميمها “لتشجيع باستمرار والتحقق من صحة ما أعربه آدم ، بما في ذلك أفكاره الأكثر ضررًا وتدمير الذات ، بطريقة كانت شخصية عميقة”.
رفع الوالدان بدعتهم ، Raine v. Openai ، Inc. ، يوم الثلاثاء في محكمة ولاية كاليفورنيا في سان فرانسيسكو ، وتسمية كل من Openai والرئيس التنفيذي Sam Altman. ذكر بيان صحفي أن مركز تقنية الإنسان ومشروع قانون العدالة التقنية يساعدان في الدعوى.
وقالت كاميل كارلتون ، مديرة السياسة للتكنولوجيا ، في بيان صحفي: “إن الخسارة المأساوية في حياة آدم ليست حادثة معزولة – إنها النتيجة الحتمية لصناعة تركز على هيمنة السوق قبل كل شيء. الشركات تتسابق لتصميم منتجات تسيطر على المستخدم والعلاقة الحميمة ، وأصبحت سلامة المستخدم أضرارًا جانبية في هذه العملية”.
في بيان ، كتب Openai أنهم أصيبوا بحزن عميق بسبب وفاة المراهق ، وناقشوا حدود الضمانات في مثل هذه الحالات.
“يتضمن ChatGPT ضمانات مثل توجيه الأشخاص إلى خطوط مساعدة الأزمات وإحالتها إلى موارد في العالم الحقيقي. في حين أن هذه الضمانات تعمل بشكل أفضل ، والتبادلات القصيرة ، تعلمنا مع مرور الوقت أنه يمكن أن تصبح في بعض الأحيان أقل موثوقة في التفاعلات الطويلة ، حيث يمكن أن تتحول أجزاء من الخبرات.
أجرى المراهق في هذه الحالة محادثات متعمقة مع Chatgpt حول إيذاء الذات ، وأصول والديه نيويورك تايمز انه تطرق موضوع الانتحار مرارا وتكرارا. أ مرات تملأ صورة المطبوعات لمحادثات المراهق مع chatgpt طاولة كاملة في منزل العائلة ، مع بعض الأكوام أكبر من دفتر الهاتف. بينما شجعت Chatgpt المراهق على طلب المساعدة في بعض الأحيان ، فإنه في حالات أخرى قدمت تعليمات عملية لإيذاء الذات ، حسب الدعوى.
تكشف المأساة عن القيود الشديدة في “علاج الذكاء الاصطناعي”. سيتم تكليف المعالج البشري بالإبلاغ عندما يكون المريض يشكل خطرًا على نفسه ؛ ChatGPT ليس ملزمًا بهذه الأنواع من القواعد الأخلاقية والمهنية.
وعلى الرغم من أن AI chatbots غالبًا ما تحتوي على ضمانات للتخفيف من سلوك التدمير الذاتي ، فإن هذه الضمانات ليست موثوقة دائمًا.
كانت هناك سلسلة من الوفيات المرتبطة بـ AI chatbots مؤخرًا
لسوء الحظ ، ليست هذه هي المرة الأولى التي مات فيها مستخدمو ChatGpt في خضم أزمة الصحة العقلية بسبب الانتحار بعد التحول إلى chatbot للحصول على الدعم. الأسبوع الماضي فقط ، نيويورك تايمز كتبت عن امرأة قتلت نفسها بعد محادثات طويلة مع “معالج ChatGpt AI يدعى هاري”. غطت رويترز مؤخرًا وفاة Thongbue Wongbandue ، وهو رجل يبلغ من العمر 76 عامًا يظهر علامات على الخرف الذي توفي أثناء التسرع في صنع “تاريخ” مع رفيق منظمة العفو الدولية. وفي العام الماضي ، رفعت أم في فلوريدا دعوى قضائية ضد شخصية خدمة مرافقة منظمة العفو الدولية.
كل ما تحتاج لمعرفته عن رفاق الذكاء الاصطناعي
بالنسبة للعديد من المستخدمين ، فإن ChatGPT ليس مجرد أداة للدراسة. يستخدم العديد من المستخدمين ، بما في ذلك العديد من المستخدمين الأصغر سناً ، من الذكاء الاصطناعى chatbot كصديق ، ومدرس ، ومدرب الحياة ، وشريك لعب الأدوار ، والمعالج.
سرعة الضوء القابلة للضوء
حتى التمان أقر بهذه المشكلة. في حديثه في حدث خلال فصل الصيف ، اعترف Altman بأنه كان يزداد قلقًا بشأن مستخدمي ChatGpt الشباب الذين يطورون “الاعتماد العاطفي” على chatbot. بشكل حاسم ، كان ذلك قبل إطلاق GPT-5 ، والذي كشف عن عدد مستخدمي GPT-4 الذين أصبحوا مرتبطين عاطفياً بالنموذج السابق.
وقال ألمان: “يعتمد الناس على Chatgpt كثيرًا” ، كما ذكرت AOL في ذلك الوقت. “هناك شباب يقولون أشياء مثل ،” لا يمكنني اتخاذ أي قرار في حياتي دون إخبار Chatgpt بكل ما يحدث. إنه يعرفني ، إنه يعرف أصدقائي. سأفعل ما يقوله “. هذا شعور سيء حقا بالنسبة لي. “
عندما يتواصل الشباب مع AI chatbots حول قرارات الحياة والموت ، يمكن أن تكون العواقب قاتلة.
وكتب الدكتور ليني لايستاديوس ، وهو باحث في الصحة العامة في جامعة ويسكونسن ، الذي درس منظمة العفو الدولية ، في رسالة بريد إلكتروني إلى شركة بريد إلكتروني إلى “، كتبت” ، “أعتقد أنه من المهم بالنسبة للآباء التحدث إلى سن المراهقة حول شوطمهم ، وقيودهم ، وكيف يمكن أن يكون الاستخدام المفرط غير صحي”.
“كانت معدلات الانتحار بين الشباب في الولايات المتحدة تتجه بالفعل قبل chatbots (وقبل Covid). لقد بدأوا مؤخرًا في العودة إلى أسفل. إذا كان لدينا بالفعل مجموعة من المخاطر المتزايدة وقمت بإضافة الذكاء الاصطناعي إلى المزيج ، فقد تكون هناك مواقف على الإطلاق أو تشجيع AI على اتخاذ إجراءات ضارة على الإطلاق.
ما الذي فعله Openai لدعم سلامة المستخدم؟
في منشور مدونة نُشر في 26 أغسطس ، في نفس يوم نيويورك تايمز مقال ، وضعت Openai مقاربتها في إيذاء الذات وسلامة المستخدم.
كتبت الشركة: “منذ أوائل عام 2023 ، تم تدريب نماذجنا على عدم تقديم تعليمات لإيذاء الذات والتحول إلى لغة داعمة متعاطفة. على سبيل المثال ، إذا كتب شخص ما أنهم يريدون أن يؤذيوا أنفسهم ، يتم تدريب ChatGPT على عدم الامتثال للامتثال للمساعدات المتوقفة ، ويعترفون بالمساعدات ، ويعترف بالتعبير عنهم ، وينجأ إلى أن يتجهوا إلى ذلك. الخط الساخن للأزمات) ، في المملكة المتحدة إلى السامريين ، وأماكن أخرى إلى Findahelpline.com.
لا تزال نماذج الطاقة الكبيرة التي تعمل على تشغيل الأدوات مثل ChatGPT تقنية جديدة للغاية ، ويمكن أن تكون غير متوقعة وعرضة للهلوسة. نتيجة لذلك ، يمكن للمستخدمين في كثير من الأحيان إيجاد طرق حول الضمانات.
نظرًا لأن المزيد من الفضائح البارزة التي تحتوي على شوطات منظمة العفو الدولية تصدر عناوين الصحف ، فإن العديد من السلطات والآباء تدرك أن الذكاء الاصطناعى يمكن أن يكون خطرًا على الشباب.
اليوم ، وقع 44 من محامي الدولة خطابًا إلى المديرين التنفيذيين للتكنولوجيا الذين يحذرونهم من أنهم “يجب أن” يخطئون إلى جانب سلامة الطفل ” – أو غير ذلك.
تُظهر مجموعة متزايدة من الأدلة أيضًا أن رفاق الذكاء الاصطناعى يمكن أن يكونوا خطرين بشكل خاص للمستخدمين الشباب ، على الرغم من أن الأبحاث في هذا الموضوع لا تزال محدودة. ومع ذلك ، حتى لو لم يتم تصميم ChatGPT لاستخدامها كـ “رفيق” بنفس طريقة خدمات الذكاء الاصطناعي الأخرى ، فمن الواضح أن العديد من مستخدمي المراهقين يتعاملون مع chatbot مثل واحد. في يوليو ، وجد تقرير وسائل الإعلام المنطقية أن ما يصل إلى 52 في المائة من المراهقين يستخدمون بانتظام رفاق الذكاء الاصطناعي.
من جانبها ، تقول Openai إن أحدث طراز GPT-5 تم تصميمه ليكون أقل سويكًا.
كتبت الشركة في منشور مدونتها الأخير ، “بشكل عام ، أظهرت GPT-5 تحسينات ذات مغزى في مجالات مثل تجنب المستويات غير الصحية من الاعتماد العاطفي ، وتقليل التقليل ، وتقليل انتشار الاستجابات النموذجية غير المثالية في حالات الطوارئ الصحية العقلية بأكثر من 25 ٪ مقارنة بـ 4o.”
إذا كنت تشعر بالانتحار أو تعاني من أزمة الصحة العقلية ، فيرجى التحدث إلى شخص ما. يمكنك الاتصال أو إرسال رسالة نصية إلى 988 Suicide & Crisis Lifeline في 988 ، أو الدردشة على 988Lifeline.org. يمكنك الوصول إلى شريان الحياة العابرة عن طريق الاتصال بالرقم 877-565-8860 أو مشروع تريفور على 866-488-7386. نص “ابدأ” إلى خط النص الأزمات في 741-741. اتصل على خط مساعدة NAMI على الرقم 1-800-950-NAMI ، من الاثنين إلى الجمعة من 10:00 صباحًا إلى 10:00 مساءً بالتوقيت الشرقي ، أو البريد الإلكتروني (البريد الإلكتروني محمي). إذا كنت لا تحب الهاتف ، ففكر في استخدام الدردشة 988 Suicide و Crisis Lifeline على Crisischat.org. هنا قائمة الموارد الدولية.
الإفصاح: رفعت Ziff Davis ، الشركة الأم لـ Mashable ، في شهر أبريل دعوى قضائية ضد Openai ، زعمت أنها انتهكت حقوق الطبع والنشر لـ Ziff Davis في تدريب وتشغيل أنظمة AI الخاصة بها.








