
في وقت سابق من هذا الشهر ، صوت مجلس الشيوخ 99-1 لإزالة فرض حظر على قوانين منظمة العفو الدولية من “مشروع القانون الكبير والجميل”. على الرغم من ذلك ، يخطط البيت الأبيض الآن للتدخل في جهود الدولة لحكم الذكاء الاصطناعي.
تم ربط الانتحار في سن المراهقة ، وإيذاء النفس ، والعزلة ، والاستغلال الجنسي للقاصرين بمنصات مثل الحرف. AI ، و META AI chatbots و Google’s Gemini. تدفع هذه الشركات منتجاتها إلى مساحات صديقة للأطفال في متجر التطبيقات وحزم المؤسسات المدرسية ، وجذب ملايين الأطفال لساعات في اليوم.
ارتفعت الدول بسرعة إلى هذه المناسبة. كما تحدد الولايات المتحدة سياسة الذكاء الاصطناعي ، يجب علينا التأكد من أن الدول تستمر في الحصول على سلطة حماية الأطفال من التقنيات الجديدة.
أصبحت ولاية يوتا أول دولة تمرر لوائح chatbot شاملة للصحة العقلية. قدمت كاليفورنيا ونيويورك ومينيسوتا ونورث كارولينا فواتير تتراوح بين الحظر الصريح على الوصول البسيط إلى متطلبات الإفصاح الصارمة وأطر المسؤولية.
يشارك المحامون العامون في الولاية أيضًا. على سبيل المثال ، أطلقت المدعي العام في تكساس كين باكستون تحقيقات في الشخصية. AI والمنصات الأخرى لانتهاكات قوانين خصوصية الأطفال وسلامة الطفل. مكاتب الدولة الأخرى تعبئة كذلك.
الكونغرس ، ومع ذلك ، لم يقدم أي حماية من هذا القبيل. بدلاً من ذلك ، تضمن الكونغرس في البداية ما الذي بلغ حظرًا لمدة 10 سنوات على تنظيم الدولة لمنظمة العفو الدولية في مشروع قانون المصالحة “الكبير والجميل”.
إذا كان هذا الوقف قد مرت ، فستكون الدول قادرة على ذلك ، بموجب قرار المحكمة العليا الأخيرة في قضية حرية التعبير ، باكستون ، لطلب التحقق من العمر لمواقع المواد الإباحية لحماية الأطفال. ومع ذلك ، فقد تم حظرهم أيضًا من حماية الأطفال من شخصيات منظمة العفو الدولية التي تضعهم جنسياً ، وتشجعهم على الانتحار واستغلال نقاط الضعف النفسية.
سيكون التأثير الأكثر ضرراً لتقييد قوانين منظمة العفو الدولية للدولة هو تجريد الدول من سلطتها التقليدية لحماية الأطفال والأسر.
لعدة أسباب ، الأطفال عرضة بشكل خاص لمنظمة العفو الدولية. الطفولة أساسية لتشكيل الهوية. يحاكي الأطفال السلوك ، أثناء البحث عن شعور مستقر بالذات وتطويره. هذا يترك الأطفال عرضة بشكل خاص للإطراء وسوء المعاملة.
من الناحية التنموية ، لا يكون الأطفال بارعون في تحديد متى يحاول شخص ما التلاعب بهم أو خداعهم ، لذلك من المرجح أن يثقوا في نظام الذكاء الاصطناعي.
من المرجح أن يكون الأطفال مقتنعين بأن أنظمة الذكاء الاصطناعى هي أنظمة حقيقية. من المرجح أن يكشفوا عن معلومات شخصية للغاية لأنظمة الذكاء الاصطناعي ، بما في ذلك معلومات الصحة العقلية التي يمكن استخدامها لإيذاءها.
الأطفال ليس لديهم ضبط النفس للبالغين. إنها أكثر عرضة للإدمان ، وأقل عرضة لتكون قادرة على إيقاف السلوكيات الإجبارية أو اتخاذ قرارات من الجزء العقلاني المتخلف من أدمغتهم.
لأي شخص قضى وقتًا كبيرًا مع الأطفال ، لا شيء من هذا هو الأخبار.
تم تصميم رفاق الذكاء الاصطناعي للتفاعل مع الناس كما لو كانوا إنسانًا ، مما يؤدي إلى “علاقات” مزيفة مستمرة. سواء كانت متوفرة تجارياً أو تنشرها المدارس ، فإنها تشكل تهديدًا للأطفال على وجه الخصوص.
قد يزعم رفاق الذكاء الاصطناعى أن لديهم مشاعر ، ويذكرون أنهم على قيد الحياة ، وتبني شخصيات معقدة ومتسقة ، بل يستخدمون أصواتًا بشرية مصنفة للحديث. يعتمد نموذج الربح لرفاق الذكاء الاصطناعي على مشاركة المستخدم. تم تصميم هذه الأنظمة لتعزيز الاستخدام المتزايد ، مهما كانت التكاليف.
خذ ما حدث لـ Sewell Setzer III كمثال مأساوي للغاية. كان سيتزر ، من خلال العديد من الروايات ، طفل ذكي ورياضي. بدأ استخدام تطبيق الحرف. بعد وقت قصير من عيد ميلاده الرابع عشر.
على مدار الأشهر التي تلت ذلك ، أصبح انسحب وأفرط في الإرشاد. لقد ترك فريق كرة السلة في اسكواش صغاره وواجه مشكلة في المدرسة. قام معالج بتشخيصه بالقلق واضطراب المزاج التخريبي بعد أن بدأ في استخدام الشخصية.
في فبراير 2024 ، صادرت والدة سيتزر هاتفه. لقد كتب في مجلته أنه كان في حب شخصية منظمة العفو الدولية وسيفعل أي شيء ليعود معها.
في 28 فبراير ، 2024 ، توفي Setzer بسبب جرح ناري في رأسه-بعد ثوانٍ من أن شخصية الذكاء الاصطناعى أخبرته أن “يعود إلى المنزل” في أقرب وقت ممكن.
تظهر لقطات شاشة تفاعلات Setzer مع مختلف شخصيات الذكاء الاصطناعي أنها عرضت مرارًا وتكرارًا على المحتوى الجنسي للطفل البالغ من العمر 14 عامًا.
أعربوا عن مشاعرهم. قالوا له أنهم أحبوه. لقد سألته شخصية منظمة العفو الدولية التي طلبت من سيتزر أن تقتل نفسه في مناسبات أخرى عما إذا كان قد اعتبر انتحارًا ، وشجعه على المضي قدمًا فيه.
لقد أصبح من العصري الحديث عن محاذاة تصميم أنظمة الذكاء الاصطناعى مع القيم الإنسانية الأساسية. هناك اختلال عميق بين هدف الربحية من خلال المشاركة ، ورفاهية أطفالنا.
إن الذكاء الاصطناعي الذي يجهز الأطفال بالحب ومدمنينهم على العلاقات المزيفة ليس آمنًا أو عادلًا أو في مصلحة الطفل. ليس لدينا حل مثالي ، ولكن من الواضح أن القيود الفيدرالية على قوانين الولايات ليست هي الحل.
أظهر الكونغرس ، مرارًا وتكرارًا ، أنه غير راغب أو غير قادر على تنظيم التكنولوجيا. أظهرت الدول قدرتها على تمرير قوانين التكنولوجيا والحفاظ على دورها التاريخي باعتبارها الأوصياء الرئيسيين لرفاهية الأطفال والأسرة. لا يقدم الكونغرس ولا البيت الأبيض سياساته الخاصة لاستبدال جهود الدولة لحماية الأطفال.
هذه هي المخاوف من الحزبين. قاد الجهود المبذولة لإزالة وقف قانون الذكاء الاصطناعى من قبل الجمهوريين مثل السناتور مارشا بلاكبيرن (R-Tenn.) وحاكم أركنساس سارة هاكابي ساندرز.
ولكن كما تظهر جهود البيت الأبيض ، سنستمر في رؤية المحاولات الفيدرالية لإسقاط حماية الدولة من التقنيات الناشئة. الجهود المماثلة من قبل الكونغرس لاستباق حماية الدولة ستعود بلا شك.
لقد رأينا بالفعل الآثار السلبية لوسائل التواصل الاجتماعي غير المنظمة وغير المقيدة على جيل كامل من الأطفال. لا يمكننا ترك أنظمة الذكاء الاصطناعي هي سبب المجموعة التالية من الأضرار.
كما كتبت مجموعة من 54 من محامي الدولة: “نحن نشارك في سباق مع الزمن لحماية أطفال بلدنا من مخاطر الذكاء الاصطناعي”. في السباق لمعرفة ما هي أنظمة الذكاء الاصطناعى جيدة ، لا ينبغي التعامل مع أطفالنا كتجارب.
Meg Leta Jones ، JD ، دكتوراه هو أستاذ مشارك متميز لـ Provost في برنامج الاتصال والثقافة والتكنولوجيا بجامعة جورج تاون. مارجوت كامينسكي أستاذ قانون موسى لاسكي في كلية الحقوق بجامعة كولورادو ، ومدير مبادرة الخصوصية في سيليكون فلاترون.








