الهيئات التشريعية للولايات المتحدة هي المكان الذي يكون فيه الإجراء لوضع الدرابزين حول تقنيات الذكاء الاصطناعي ، بالنظر إلى عدم وجود تنظيم فدرالي ذي معنى. الهزيمة المدوية في الكونغرس من وقف مقترح بشأن لائحة منظمة العفو الدولية على مستوى الولاية تعني أن الدول حرة لمواصلة ملء الفجوة.
قامت عدة ولايات بالفعل بتشريعات حول استخدام الذكاء الاصطناعي. قدمت جميع الولايات الخمسين تشريعات مختلفة متعلقة بالانعدام الذكاء في عام 2025.
تبرز أربعة جوانب من الذكاء الاصطناعى على وجه الخصوص من منظور تنظيمي: الاستخدام الحكومي لمنظمة العفو الدولية ، الذكاء الاصطناعي في الرعاية الصحية ، والتعرف على الوجه و AI التوليدي.
استخدام الحكومة لمنظمة العفو الدولية
الإشراف والاستخدام المسؤول من الذكاء الاصطناعى أمران حاسم بشكل خاص في القطاع العام. لقد حولت الذكاء الاصطناعى التنبؤية – AAI التي تؤدي تحليلًا إحصائيًا لإجراء تنبؤات – العديد من الوظائف الحكومية ، من تحديد أهلية الخدمات الاجتماعية إلى تقديم توصيات بشأن إصدار الأحكام والإفراج المشروط عن العدالة الجنائية.
لكن الاستخدام الواسع النطاق لاتخاذ القرارات الخوارزمية يمكن أن يكون له تكاليف خفية كبيرة. تشمل الأضرار الخوارزمية المحتملة التي تطرحها أنظمة الذكاء الاصطناعى المستخدمة للخدمات الحكومية التحيزات العرقية والجنسانية.
وإدراكًا احتمال حدوث أضرار خوارزمية ، فقد قدمت الهيئات التشريعية للولاية مشاريع قوانين تركز على استخدام القطاع العام لمنظمة العفو الدولية ، مع التركيز على الشفافية وحماية المستهلك والاعتراف بمخاطر نشر الذكاء الاصطناعي.
طلبت العديد من الدول من مطوري الذكاء الاصطناعى الكشف عن المخاطر التي تشكلها أنظمتهم. يتضمن قانون الذكاء الاصطناعي في كولورادو متطلبات الشفافية والإفصاح لمطوري أنظمة الذكاء الاصطناعى المشاركة في اتخاذ القرارات التبعية ، وكذلك لأولئك الذين ينشرونها.
يحدد قانون “الحق في حساب” في مونتانا المتطلبات التي يتبناها مطورو الذكاء الاصطناعى أطر عمل إدارة المخاطر – الأخلاق لمعالجة الأمن والخصوصية في عملية التطوير – لأنظمة الذكاء الاصطناعي المشاركة في البنية التحتية الحرجة. أنشأت بعض الدول هيئات توفر هيئة الإشراف والتنظيمية ، مثل تلك المحددة في مشروع قانون SB 8755 في نيويورك.
منظمة العفو الدولية في الرعاية الصحية
في النصف الأول من عام 2025 ، قدمت 34 ولاية أكثر من 250 فاتورة صحية متعلقة بالنيابة. تنقسم الفواتير عمومًا إلى أربع فئات: متطلبات الإفصاح ، وحماية المستهلك ، واستخدام شركات التأمين لاستخدام الذكاء الاصطناعي والأطباء من الذكاء الاصطناعي.
تحدد فواتير الشفافية متطلبات المعلومات التي يكشف عنها مطورو نظام الذكاء الاصطناعي والمؤسسات التي تنشر الأنظمة.
تهدف فواتير حماية المستهلك إلى منع أنظمة الذكاء الاصطناعى من التمييز بشكل غير عادل ضد بعض الأشخاص ، والتأكد من أن مستخدمي الأنظمة لديهم وسيلة للتنافس على القرارات المتخذة باستخدام التكنولوجيا.

توفر الفواتير التي تغطي شركات التأمين الإشراف على استخدام دافعي الذكاء الاصطناعى لاتخاذ قرارات بشأن موافقات الرعاية الصحية والمدفوعات. وفواتير حول الاستخدامات السريرية لوكالة الذكاء الاصطناعى تنظم استخدام التكنولوجيا في تشخيص وعلاج المرضى.
التعرف على الوجه والمراقبة
في الولايات المتحدة ، تتمثل العقيدة القانونية الطويلة الأمد التي تنطبق على قضايا حماية الخصوصية ، بما في ذلك مراقبة الوجه ، إلى حماية الحكم الذاتي الفردي من التدخل من الحكومة. في هذا السياق ، تشكل تقنيات التعرف على الوجه تحديات خصوصية كبيرة بالإضافة إلى مخاطر التحيزات المحتملة.
أظهر برنامج التعرف على الوجه ، الذي شائع الاستخدام في الشرطة التنبؤية والأمن القومي ، تحيزات ضد الأشخاص ذوي اللون ، وبالتالي يعتبر في كثير من الأحيان تهديدًا للحريات المدنية. وجدت دراسة رائعة من قبل علماء الكمبيوتر Joy Buolamwini و Timnit Gebru أن برنامج التعرف على الوجه يمثل تحديات كبيرة بالنسبة للأشخاص السود والأقليات المحرومة تاريخياً. كان برنامج التعرف على الوجه أقل عرضة لتحديد الوجوه الداكنة بشكل صحيح.
يزحف التحيز أيضًا إلى البيانات المستخدمة لتدريب هذه الخوارزميات ، على سبيل المثال عندما يفتقر تكوين الفرق التي توجه تطوير برنامج التعرف على الوجه هذا إلى التنوع.
بحلول نهاية عام 2024 ، سنت 15 ولاية في الولايات المتحدة قوانين للحد من الأضرار المحتملة من التعرف على الوجه. بعض عناصر اللوائح على مستوى الدولة هي متطلبات على البائعين لنشر تقارير اختبار التحيز وممارسات إدارة البيانات ، وكذلك الحاجة إلى المراجعة البشرية في استخدام هذه التقنيات.

النماذج التوليدية ونماذج الأساس
كما دفع الاستخدام الواسع النطاق لوكالة الذكاء الاصطناعى التوليدي مخاوف من المشرعين في العديد من الولايات. يتطلب قانون سياسة الذكاء الاصطناعي في ولاية يوتا الأفراد والمنظمات من الكشف بوضوح عند استخدام أنظمة الذكاء الاصطناعى التوليدي للتفاعل مع شخص ما عندما يسأل ذلك الشخص ما إذا كان يتم استخدام الذكاء الاصطناعي ، على الرغم من أن الهيئة التشريعية ضاقت لاحقًا النطاق للتفاعلات التي قد تنطوي على تقديم المشورة أو جمع المعلومات الحساسة.
في العام الماضي ، أقرت كاليفورنيا AB 2013 ، وهو قانون من الذكاء الاصطناعى التوليدي الذي يتطلب من المطورين نشر معلومات على مواقع الويب الخاصة بهم حول البيانات المستخدمة لتدريب أنظمة الذكاء الاصطناعى ، بما في ذلك نماذج الأساس. نماذج الأساس هي أي نموذج من الذكاء الاصطناعي يتم تدريبه على مجموعات بيانات كبيرة للغاية ويمكن تكييفه مع مجموعة واسعة من المهام دون تدريب إضافي.
لم يكن مطورو الذكاء الاصطناعى عادة ما يكونون وشيكين حول بيانات التدريب التي يستخدمونها. يمكن أن يساعد مثل هذا التشريع أصحاب حقوق الطبع والنشر للمحتوى المستخدمين في تدريب الذكاء الاصطناعي على التغلب على عدم وجود الشفافية.
محاولة ملء الفجوة
في غياب إطار تشريعي اتحادي شامل ، حاولت الولايات معالجة الفجوة من خلال المضي قدمًا في جهودها التشريعية. على الرغم من أن مثل هذا الترقيع من القوانين قد يعقد جهود مطوري الذكاء الاصطناعي ، إلا أنني أعتقد أن الدول يمكن أن توفر إشرافًا مهمًا ومطلوبًا على الخصوصية والحقوق المدنية وحماية المستهلك.
وفي الوقت نفسه ، أعلنت إدارة ترامب عن خطة عمل الذكاء الاصطناعي في 23 يوليو 2025. تقول الخطة “يجب ألا تسمح الحكومة الفيدرالية بالتمويل الفيدرالي المتعلق بالانعدام الذكاء إلى الولايات التي لديها لوائح الذكاء الاصطناعي.”
قد تعيق هذه الخطوة جهود الدولة لتنظيم الذكاء الاصطناعي إذا اضطرت الدول إلى وزن اللوائح التي قد تتعارض مع تعريف الإدارة للمرهقة ضد التمويل الفيدرالي المطلوب لمنظمة العفو الدولية.
أنجانا سوسارلا أستاذة لأنظمة المعلومات بجامعة ولاية ميشيغان.
يتم إعادة نشر هذه المقالة من المحادثة بموجب ترخيص المشاع الإبداعي. اقرأ المقال الأصلي.








