في تغريدة مسبقة ، أشار الرئيس التنفيذي لشركة Openai ، سام ألمان ، إلى أن الذكاء الاصطناعى سيصبح مقنعًا قبل وقت طويل من أن يصبح ذكيًا. أثبتت دراسة متلألئة أجراها باحثون في جامعة زيوريخ.

في الدراسة ، استخدم الباحثون منظمة العفو الدولية لتحدي وجهات نظر Redditors في Subreddit للموقع /ChangemyView ، حيث يشارك المستخدمون رأيًا حول موضوع ما ويتحدون الآخرين لتقديم الحجج المضادة بطريقة حضارية. دون علم المستخدمين ، استخدم الباحثون منظمة العفو الدولية لإنتاج حجج حول كل شيء بدءًا من سلالات الكلاب الخطرة إلى أزمة الإسكان.

أثبتت التعليقات التي تم إنشاؤها من الذكاء الاصطناعى أنها فعالة للغاية في تغيير عقول Redditors. عبّرت لجنة الأخلاقيات بالجامعة على الدراسة ، حيث من غير الأخلاقي عمومًا إخضاع الناس للتجريب دون علمهم. يبدو أن فريق Reddit القانوني يتابع إجراءات قانونية ضد الجامعة.

لسوء الحظ ، قرر باحثو زيوريخ عدم نشر نتائجهم الكاملة ، ولكن ما نعرفه حول يشير الدراسة إلى مخاطر صارخة في النظام الإيكولوجي عبر الإنترنت – المعالجة ، والمعلومات الخاطئة ، وتدهور العلاقة الإنسانية.

قوة الإقناع

أصبح الإنترنت سلاح الخداع الجماعي.

في عصر الذكاء الاصطناعي ، تصبح قوة الإقناع هذه أكثر حدة. يمكن أن تصبح الآلهة التي تشبه المستشارين الماليين والمعالجين والصديقات والموجهين الروحيين قناة للتلاعب الأيديولوجي.

تؤكد دراسة جامعة زيوريخ هذا الخطر. إذا كان التلاعب غير مقبول عندما يفعل الباحثون ذلك ، فلماذا لا بأس أن يقوم عمالقة التكنولوجيا بذلك؟

نماذج اللغة الكبيرة (LLMS) هي أحدث منتجات للمحتوى الذي يحركه الخوارزمية. لقد أثبتت وسائل التواصل الاجتماعي المنسق في الخوارزميات ومنصات البث المعلنة بالفعل التلاعب بها.

  • جرب Facebook معالجة مزاج المستخدمين – دون موافقتهم – من خلال ملفات الأخبار الخاصة بهم في وقت مبكر من عام 2012.
  • يوضح بودكاست Hole Rabbit كيف أنشأت خوارزمية YouTube خط أنابيب لتطرف الشباب.
  • أظهرت كامبريدج تحليلية وروسيا كيف تؤثر وسائل التواصل الاجتماعي على الانتخابات في الداخل والخارج.
  • وقد تبين أن خوارزمية Tiktok تخلق غرف صدى ضارة تنتج الانقسام.

LLMs التأسيسية مثل كلود و chatgpt تشبه عقل الخلية على الإنترنت الكبيرة. إن فرضية هذه النماذج تحمل أنها تعرف أكثر منك. لا إنسانية تجعل المستخدمين يفترضون أن مخرجاتهم غير متحيزة.

الخوارزمية الخلق المحتوى أكثر خطورة من الخوارزمية تنشيط من المحتوى عبر التغذية. يتحدث هذا المحتوى مباشرة إليك ، ويشهدك ، ويعزز وجهة نظرك.

لا تنظر إلى أبعد من Grok ، LLM التي تنتجها شركة Elon Musk’s Xai. منذ البداية ، كان Musk صارخًا حول الهندسة Grok لدعم نظرته للعالم. في وقت سابق من هذا العام ، تخضع جروك تحت التدقيق بسبب شكوك في عدد اليهود الذين قتلوا في الهولوكوست ولشعاشها في الباطل الإبادة الجماعية البيضاء في جنوب إفريقيا.

الإنسان مقابل الآلة

شعر مستخدمو Reddit بالعدوى تجاه الدراسة لأن ردود الذكاء الاصطناعى تم تقديمها كاستجابات إنسانية. إنه اقتحام. قواعد Subreddit تحمي وتحفيز مناقشة إنسانية حقيقية ، مما يملي أن الرأي المعني يجب أن يكون لك ويجب الكشف عن المنشورات التي تم إنشاؤها من الذكاء الاصطناعي.

Reddit هو صورة مصغرة لما كان على شبكة الإنترنت: كوكبة من المصالح والمجتمعات المتخصصة التي تحكم نفسها إلى حد كبير ، وتشجيع الاستكشاف. من خلال هذا التعرج الرقمي ، وجد جيل كامل مجموعات مشابهة وتطور بمساعدة تلك العلاقات.

منذ أوائل عام 2010 ، استحوذت الروبوتات على الإنترنت. على وسائل التواصل الاجتماعي ، يتم نشرهم بشكل جماعي لمعالجة الإدراك العام. على سبيل المثال ، طرحت مجموعة من الروبوتات في عام 2016 من مؤيدي ترامب السود ، ظاهريًا لتطبيع ترامب للناخبين من الأقليات. لعبت الروبوتات دورًا محوريًا في خروج بريطانيا من الاتحاد الأوروبي ، لآخر.

أعتقد أن الأمر يهم بعمق أن التفاعل عبر الإنترنت لا يزال بشريًا وحقيقيًا. إذا كان محتوى الذكاء الاصطناعي غير أخلاقي في البحث ، فإن انتشاره داخل منصات التواصل الاجتماعي يجب أن يرسل علامة حمراء أيضًا.

العطش من أجل الأصالة

الجريمة الأخلاقية الثالثة لدراسة زيوريخ: إنها غير صحيحة.

الباحثون الذين يستخدمون الذكاء الاصطناعى للدفاع عن وجهة نظر لم يحتفظ بوجهة النظر هذه بأنفسهم. لماذا هذا مهم؟ لأن الهدف من الإنترنت لا يجادل مع الروبوتات طوال اليوم.

إذا كانت الروبوتات تتجادل مع روبوتات حول مزايا DEI ، إذا كان الطلاب يستخدمون الذكاء الاصطناعى للكتابة ويستخدم المعلمون منظمة العفو الدولية إلى الصف ثم ، على محمل الجد ، ماذا نفعل؟

أنا قلق بشأن العواقب شبه المدى للتعهيد للاستعانة بمصادر خارجية تفكيرنا في LLMs. في الوقت الحالي ، تكمن تجربة معظم البالغين العاملين في عالم ما قبل المالي ، مما يتيح لنا توظيف الذكاء الاصطناعي بحكمة (في الغالب ، في الوقت الحالي). ولكن ماذا يحدث عندما تكون القوى العاملة مليئة بالبالغين الذين لم يعرفوا أي شيء سوى الذكاء الاصطناعي ولم يسبق لهم التفكير في التفكير؟

لا يمكن لـ LLMS منافسة العقل البشري في الإبداع وحل المشكلات والشعور والإبداع. LLMS هي صدى لنا. ماذا نصبح إذا فقدنا صوتنا الأصلي أمام cacophony؟

تدرس دراسة زيوريخ على هذا الفضاء البشري المقدس. هذا ما يجعلها شائكة للغاية ، وبالتالي فهي مؤثرة للغاية.

خلاصة القول

الأسباب التي تجعل هذه الدراسة فضيحة هي نفس الأسباب التي تستحق العناء. إنه يسلط الضوء على ما هو الخطأ بالفعل في الإنترنت الموباء عن الروبوت ، ومدى الخطأ الذي يمكن أن يحصل عليه مع الذكاء الاصطناعي. إن تعدياتها تجلب تدهور النظام الإيكولوجي عبر الإنترنت إلى راحة صارخة.

لقد حدث هذا التدهور لأكثر من عقد من الزمان – أي بشكل تدريجي ، حتى لا نشعر به. الإنترنت المفترس والتلاعب هو استنتاج فردي. إنه الماء الذي نسبح فيه ، أيها الناس.

توضح هذه الدراسة مدى غموض المياه ، ومدى أسوأها. آمل أن تغذي تشريعات ذات مغزى أو على الأقل اختيار شخصي مدروس عريضة. في غياب القواعد ضد روبوتات الذكاء الاصطناعي ، يسعد Big Tech بالاستفادة من الهزات.

ليندسي ثItmer Collins هو الرئيس التنفيذي لشركة WLCM App Studio و Scribbly Books.

رابط المصدر