اعتذر محامٍ كبير في أستراليا إلى قاضٍ لتقديم الطلبات في قضية القتل التي شملت اقتباسات مزيفة وأحكام القضايا غير الموجودة الناتجة عن الذكاء الاصطناعي.

إن الخطأ في المحكمة العليا في ولاية فيكتوريا هو آخر في مجموعة من الحوادث التي تسببت بها الذكاء الاصطناعي في أنظمة العدالة في جميع أنحاء العالم.

تولى محامي الدفاع ريشي ناثواني ، الذي يحمل اللقب القانوني المرموق لمحامي الملك ، “المسؤولية الكاملة” لتقديم معلومات غير صحيحة في الطلبات في قضية مراهق متهم بالقتل ، وفقًا لوثائق المحكمة التي شاهدتها وكالة أسوشيتيد برس يوم الجمعة.

وقال ناثواني لجيمس إليوت يوم الأربعاء ، نيابة عن فريق الدفاع: “نحن آسفون للغاية ومحرجون لما حدث”.

تسببت الأخطاء التي تم إنشاؤها في الذكاء الاصطناعى تأخيرًا على مدار 24 ساعة في حل القضية التي كان Elliott يأمل في أن يختتمها يوم الأربعاء. قضى إليوت يوم الخميس بأن عميل ناثواني ، الذي لا يمكن التعرف عليه لأنه قاصر ، لم يكن مذنباً بالقتل بسبب ضعف عقلي.

وقال إليوت للمحامين يوم الخميس “في خطر الاختبار ، فإن الطريقة التي تكشفت بها هذه الأحداث غير مرضية”.

وأضاف إليوت: “إن قدرة المحكمة على الاعتماد على دقة التقديمات التي قدمها المحامي أمر أساسي للإدارة الواجبة للعدالة”.

تضمنت عمليات التقديم المزيفة اقتباسات ملفقة من خطاب إلى الهيئة التشريعية للولاية واستشهادات القضايا غير الموجودة من المحكمة العليا.

تم اكتشاف الأخطاء من قبل شركاء إليوت ، الذين لم يتمكنوا من العثور على القضايا وطلبوا من محامو الدفاع تقديم نسخ.

اعترف المحامون بأن الاستشهادات “غير موجودة” وأن التقديم يحتوي على “اقتباسات وهمية” ، كما تقول وثائق المحكمة.

أوضح المحامون أنهم تحققوا من أن الاستشهادات الأولية كانت دقيقة وافتراض أن الآخرين سيكونون صحيحين أيضًا.

كما تم إرسال الطلبات إلى المدعي العام دانييل بوردودو ، الذي لم يتحقق من دقتها.

أشار القاضي إلى أن المحكمة العليا أصدرت إرشادات العام الماضي لكيفية استخدام المحامين الذكاء الاصطناعي.

وقال إليوت: “ليس من المقبول استخدام الذكاء الاصطناعي ما لم يتم التحقق من ناتج هذا الاستخدام بشكل مستقل وشامل”.

لا تحدد وثائق المحكمة نظام الذكاء الاصطناعي التوليدي الذي يستخدمه المحامون.

في قضية مماثلة في الولايات المتحدة في عام 2023 ، فرض قاضي فيدرالي غرامات بقيمة 5000 دولار على محامين وشركة محاماة بعد أن تم إلقاء اللوم على شاتغبت في تقديمه للبحث القانوني الوهمي في مطالبة إصابة الطيران.

قال القاضي ب. كيفن كاستيل إنهم تصرفوا بسوء نية. لكنه عزز اعتذاراتهم وخطواتهم العلاجية التي اتخذت في شرح سبب عدم وجود عقوبات أكثر قسوة لضمان عدم السماح لهم أو الآخرين مرة أخرى بأدوات الذكاء الاصطناعي التي تطالبهم بإنتاج تاريخ قانوني مزيف في حججهم.

في وقت لاحق من ذلك العام ، تم ذكر المزيد من أحكام المحكمة الوهمية التي اخترعها منظمة العفو الدولية في أوراق قانونية قدمها محامون لمايكل كوهين ، المحامي الشخصي السابق للرئيس الأمريكي دونالد ترامب. ألقى كوهين اللوم ، قائلاً إنه لم يدرك أن أداة Google التي كان يستخدمها للبحث القانوني كانت قادرة أيضًا على ما يسمى بالهلوسة الذكاء الاصطناعى.

حذرت فيكتوريا شارب ، قاضية المحكمة العليا البريطانية في يونيو ، من أن توفير مواد كاذبة كما لو كانت حقيقية يمكن اعتبارها ازدراء للمحكمة أو ، في “معظم القضايا الفظيعة” ، مما يحشر مجرى العدالة ، الذي يحمل عقوبة بالسجن مدى الحياة في السجن.

– رود ماكجيرك ، وكالة أسوشيتد برس

رابط المصدر