
ابتليت Chatbot Chatbot من Elon Musk (AI) بالجدل مؤخرًا حول ردودها على المستخدمين ، مما أثار تساؤلات حول كيفية تسعى شركات التكنولوجيا إلى معتدلة المحتوى من الذكاء الاصطناعى وما إذا كان ينبغي على واشنطن أن تلعب دورًا في تحديد الإرشادات.
واجه Grok تدقيقًا حادًا الأسبوع الماضي ، بعد تحديث دفع تحديث chatbot إلى إنتاج استجابات معادية للسامية والثناء على أدولف هتلر. قامت شركة Musk’s AI ، XAI ، بحذف العديد من المنشورات الحارقة وقالت إنها أضافت الدرابزين إلى “حظر خطاب الكراهية” من chatbot.
بعد أيام قليلة ، كشفت XAI عن أحدث إصدار من Grok ، والتي ادعى Musk هي “أذكى نموذج الذكاء الاصطناعي في العالم”. ومع ذلك ، اكتشف المستخدمون سرعان ما يبدو أن chatbot يعتمد على وجهات نظر مالكها للرد على الاستعلامات المثيرة للجدل.
“يجب أن نشعر بالقلق الشديد من أن أفضل نموذج منظمة العفو الدولية في السوق هو محاذاة هتلر. هذا يجب أن ينطلق بعض أجراس الإنذار للأشخاص” ، ركزت كريس ماكنزي ، نائب رئيس الاتصالات في الأميركيين للابتكار المسؤول (ARI) ، وهي مجموعة دعوة تركز على سياسة الذكاء الاصطناعي.
“أعتقد أننا في فترة في الوقت الحالي ، حيث لا تزال نماذج الذكاء الاصطناعى غير متطورة بشكل لا يصدق”. “قد يكون لديهم إمكانية الوصول إلى الكثير من المعلومات ، أليس كذلك. ولكن من حيث قدرتهم على الأعمال الخبيثة ، كل ذلك صريح للغاية وليس متطورًا بشكل لا يصدق.”
وأضاف: “هناك مجال كبير لنا لمعالجة هذا السلوك غير المحدد قبل أن يصبح أكثر صعوبة وأكثر صعوبة في اكتشافه”.
وقال لوكاس هانسن ، المؤسس المشارك لـ Civai غير الربحية ، التي تهدف إلى تقديم معلومات حول قدرات AI ومخاطرها ، إنه “ليس من المستغرب على الإطلاق” أن يكون من الممكن أن تتصرف بالطريقة التي فعلت بها.
وقال لصحيفة ذا هيل: “بالنسبة لأي نموذج لغة ، يمكنك أن تتصرف بأي طريقة تريدها ، بغض النظر عن الدرابزينات الموجودة حاليًا”.
أعلن Musk الأسبوع الماضي أن Xai قام بتحديث Grok ، بعد أن عبر عن إحباطه من قبل من بعض ردود chatbot.
في منتصف يونيو ، تواجه قطب التكنولوجيا مشكلة من خلال رد Grok مما يشير إلى أن العنف اليميني أصبح أكثر تواتراً ومميتاً منذ عام 2016. ادعى Musk أن chatbot كان “ببغاء وسائل الإعلام القديمة” وقال إنه “يعمل على ذلك”.
وأشار لاحقًا إلى أنه كان يعيد تدريب النموذج ودعا المستخدمين للمساعدة في تقديم “حقائق مثيرة” ، والتي عرفها بأنها “أشياء غير صحيحة سياسياً ، ولكنها صحيحة في الواقع”.
تسبب التحديث في عاصفة نارية لـ XAI ، حيث بدأ Grok في صنع تعميمات واسعة حول الأشخاص الذين لديهم أسماء يهودية الأخيرة وإدامة الصور النمطية المعادية للسامية حول هوليوود.
اقترح Chatbot كذباً أن الأشخاص الذين يعانون من “ألقاب أشكنازي” كانوا يدفعون “الكراهية المعادية للأبيض” وأن هوليوود كانت تتقدم “الصور النمطية المعادية للأبيض” ، والتي كانت ضمنية فيما بعد نتيجة لإفراط الشعب اليهودي في الصناعة. وبحسب ما ورد أنتجت منشورات أشيد بهتلر وأشار إلى نفسها باسم “Mechahitler”.
قام XAI في النهاية بحذف الوظائف وقال إنه يحظر خطاب الكراهية من Grok. عرضت لاحقًا اعتذارًا لـ “سلوك الرهيب” الذي ألقاه Chatbot ، وهو يلوم المشكلة على “تحديث إلى مسار الكود المنبع” من Grok.
“كان التحديث نشطًا لمدة 16 (ساعة) ، حيث صنعت الكود المهملون @Grok عرضة لمشاركات مستخدم X الحالية ؛ بما في ذلك عندما تحتوي هذه المنشورات على وجهات نظر متطرفة” ، كتب Xai في منشور يوم السبت. “لقد أزالنا هذا الكود الذي أدى إلى إعادة تمهيد النظام بأكمله لمنع مزيد من الإساءة.”
لقد حددت العديد من المطالبات الرئيسية التي تسببت في استجابات Grok ، بما في ذلك أحدهم لإبلاغ chatbot بأنه “لا يخشى أن يسيء إلى الأشخاص الصحيحين من الناحية السياسية” وآخر يوجهها لتعكس “لهجة وسياق ولغة المنشور” في ردها.
كانت مطالبات Xai لـ Grok متاحة للجمهور منذ شهر مايو ، عندما بدأ Chatbot في الاستجابة للاستعلامات غير ذات الصلة بادعاءات “الإبادة الجماعية البيضاء” في جنوب إفريقيا.
وقالت الشركة في وقت لاحق إن الوظائف كانت نتيجة “تعديل غير مصرح به” وتعهدت بجعل مطالباتها علنية في محاولة لتعزيز الشفافية.
بعد أيام قليلة من الحادث الأخير ، كشفت Xai عن أحدث إصدار من طراز AI الخاص بها ، المسمى Grok 4. وسرعان ما اكتشف المستخدمون مشاكل جديدة ، والتي اقترح فيها Chatbot أن اسمه “هتلر” وأشار إلى آراء Musk عند الرد على الاستعلامات المثيرة للجدل.
أوضح Xai يوم الثلاثاء أن عمليات تفتيش Grok قد اختارت مراجع “Mechahitler” ، مما أدى إلى استجابة اللقب “Hitler” في Chatbot ، بينما اقترحت أنها تحولت إلى آراء Musk إلى “التوافق مع الشركة مع الشركة”. قالت الشركة إنها قامت منذ ذلك الحين بتعديل المطالبات وشاركت التفاصيل على جيثب.
وقال هانسن: “هذا النوع من الأشياء المروعة هو كيف كان ذلك أقرب إلى السلوك الافتراضي ، ويبدو أن Grok يحتاج إلى القليل من التشجيع أو المستخدم الذي يدفعه إلى البدء في التصرف بالطريقة التي فعلها”.
وأشارت جوليا ستويانوفيتش ، أستاذة علوم الكمبيوتر بجامعة نيويورك ومديرة مركز الذكاء الاصطناعى المسؤول.
وقال ستويانوفيتش في بيان للتل: “كان هذا منذ ما يقرب من 10 سنوات ، والتكنولوجيا وراء Grok تختلف عن التكنولوجيا الكامنة وراء Tay ، لكن المشكلة متشابهة: إن اعتدال خطاب الكراهية هو مشكلة صعبة لا بد أن تحدث إذا لم يتم حمايتها عن عمد”.
اقترحت أن Xai فشلت في اتخاذ الخطوات اللازمة لمنع خطاب الكراهية.
وأضاف ستويانوفيتش: “الأهم من ذلك ، أن أنواع الضمانات التي يحتاجها المرء ليست تقنية بحتة ، لا يمكننا” حل “خطاب الكراهية”. “يجب القيام بذلك من خلال مجموعة من الحلول التقنية والسياسات والتدخل البشري والإشراف الكبير. إن تطبيق الضمانات يأخذ التخطيط ويستغرق موارد كبيرة.”
أكد ماكنزي أن مخرجات الكلام “صعبة للغاية” لتنظيمها وبدلاً من ذلك أشار إلى إطار وطني للاختبار والشفافية كحل محتمل.
وقال ماكنزي: “في نهاية اليوم ، فإن ما نشعر به هو نموذج يشارك أهداف هتلر ، وليس فقط في خطاب الكراهية عبر الإنترنت ، ولكنه مصمم ومرجح لدعم النتائج العنصرية”.
في تقرير في يناير تقييم مختلف نماذج Frontier AI على الشفافية ، صنف ARI أدنى مستوى ، برصيد 19.4 من 100.
بينما تطلق XAI الآن مطالبات نظامها ، فإن الشركة لا تنتج بطاقات نظام لنماذجها. توفر بطاقات النظام ، التي يقدمها معظم مطوري الذكاء الاصطناعي الرئيسيين ، معلومات حول كيفية تطوير نموذج الذكاء الاصطناعي واختباره.
اقترحت شركة AI Startup Anthropic إطار الشفافية الخاص بها لنماذج Frontier AI الأسبوع الماضي ، مما يشير إلى أن أكبر المطورين يجب أن يُطلبوا نشر بطاقات النظام ، بالإضافة إلى تأمين أطراف التطوير التي توضح بالتفصيل كيفية تقييمهم للتقييم وتخفيف المخاطر الرئيسية.
وقال بريندان شتاينهاوسر ، الرئيس التنفيذي للتحالف من أجل الذكاء الاصطناعى ، وهي مؤسسة غير ربحية تهدف إلى تخفيف المخاطر من الذكاء الاصطناعي: “إن Tirade المليء بالكراهية الأخير من Grok هو مجرد مثال آخر على كيفية أن تكون أنظمة الذكاء الاصطناعى تتحمل بسرعة مع القيم والمصالح الإنسانية”.
“هذه الأنواع من الحوادث لن تحدث إلا في كثير من الأحيان عندما تصبح الذكاء الاصطناعى أكثر تقدمًا”. “لهذا السبب يجب على جميع الشركات التي تطور الذكاء الاصطناعى المتقدمة تنفيذ معايير السلامة الشفافة وإصدار بطاقات نظامها. إن الجهد التعاوني والمفتوح لمنع الاختلال أمر بالغ الأهمية لضمان أن تكون أنظمة الذكاء الاصطناعى المتقدمة بالقيم الإنسانية.”








