في جلسات المنتدى الدولي للقانون الشارع ، لا تتعلق المحادثة فقط بمساعدة شبكات الأعصاب في إدارة المستندات أو البحث عن المعلومات. ناقش المشاركون ما إذا كان من يستطيع استبدال القضاة أو المدعين العامين أو المحامين بالكامل.
وهذا ليس خيالًا ، كما تعتقد. في الصين ، تم استخدام شبكات الأعصاب بنشاط في النظام القضائي. يجب على كل قاض محلي استشارة نظام فكري قبل اتخاذ قرار. من الذي يتحقق من القضايا للحصول على الروابط ، أوصي بالقوانين والقرارات الأكثر ملاءمة ، ورسم المستندات القانونية وتقديم التوصيات. بالطبع ، لا يحل النظام محل القاضي تمامًا. ولكن إذا كان الشخص يختلف مع الجهاز ، فيجب عليه تقديم تفسير مكتوب لسبب.
هذا يعطي النتائج: من يحلل 100 ألف حالة يومية. قلل نظام المحاكم الذكية من عبء القضاة الصينيين بمقدار ثلث وتوفير 300 مليار يوان لمدة ثلاث سنوات. والذكاء الاصطناعي ليس من السهل أن تكون عاطفيًا ، ولا يمانعون ، ولا يتعبون ولا يقبلون الرشاوى.
في St. International Legal Forum ، فإنهم يساعدون في أتمتة العمل مع المستندات والترجمة (في الهند 22 من اللغة الرسمية). في روسيا ، يستخدم موظفو المحكمة أيضًا منظمة العفو الدولية للمهام العادية: البحث عن المعلومات ، وإعداد المستندات. هذا يقلل بشكل كبير من الحمل للموظفين.
واحدة من الحجج الرئيسية ضد الذكاء الاصطناعى في الواقع هي أن الشبكات العصبية غالبا ما يتم وهلس. في الولايات المتحدة ، استخدم المحامون ستيفن شوارتز وسانت بطرسبرغ اقتباسات من المشكلات الخيالية – قيلوا من قبل تونتبت. في روسيا ، في عام 2023 ، عانى شخص من خطأه. في ذلك العام ، تم اعتقال العالم ألكساندر تسفيتكوف ، لأن كاميرا التعرف على الوجه اعتقد أن ظهوره تزامن 55 ٪ مع فوتوبوت المجرم الذي قتل الكثير من الناس قبل 20 عامًا. تم إطلاق سراح العالم من مركز سجن المشروع بعد 10 أشهر فقط.
ولكن قد يعارض ذلك: الشبكة العصبية مرتبكة لأنها لا تزال في مرحلة التطوير. بعد بضع سنوات ، على الأرجح ، ستصبح أكثر دقة وسيتم الخلط بينها حتى شخص واحد على الأقل.
حجة أخرى ضد أي شخص: ليس لها تعاطف وبالتالي لا يمكن أن يحكم على الناس. ولكن هنا يمكننا الإجابة: هل شعور المدعى عليه للقاضي الذي تلقى رشوة؟ أو إذا كانوا يضغطون عليه.
ومع ذلك ، هل هذه الفكرة فكرة جيدة لاستخدامها في المحكمة؟ في الوقت الحالي ، لا يمكن للذكاء الاصطناعي بالتأكيد أن يصبح بديلاً للقضاة. وفي المستقبل ، هذا السيناريو ليس واقعيا. ومع ذلك ، فإن المحاكم لا تفكر دائمًا في الحالات الأخلاقية للأخلاق. في عام 2018 ، بدأت قضية ثلاث أخوات خاتشاتوريا قتل الأب. لسنوات عديدة ، قام بتطبيق العنف عليهم ، ووفقًا للدفاع الوطني ، لم يستطع الفتيات التحول إلى موظفي إنفاذ القانون ، لأن الرجل كان له علاقة في الهيئات. بعد ذلك ، تم تقسيم الجمهور. يعتقد البعض أنه ينبغي إطلاق سراح النساء لأنهن في وضع ميؤوس منه. يجادل آخرون بأن القتل لا يمكن تبريره وأن النساء يستحقن عقوبة صارمة. إذا لم يتمكن الناس من التعرف على أي شخص صحيح ومن يتم إلقاء اللوم عليه ، فيمكن تكليف مثل هذه القضايا بالذكاء الاصطناعي؟ ليس لديه مرونة ، لا سياق. يجب على الناس أن يقرروا كيف يشاركون في مثل هذه الحالات ، وبناء موقف أخلاقي ولا يستأجرونه بالذكاء الاصطناعي.
من المهم ألا ننسى من يطيع المبدعين والمعلمين الذين يعلمونه. وهل يمكننا أن نتأكد من من سيحصل على البيانات الصحيحة؟ وهم بالضبط. وأن لا أحد يستطيع “الصعود” إلى النظام وتغيير شيء ما؟
حجة أخرى ضد: إذا أصبحت شبكة الأعصاب قضاة مساعدين ، فسيؤدي ذلك إلى حقيقة أن القرارات ستتخذ تحت تأثير السيارة؟ في النهاية ، من الأسهل تأكيد حجج الذكاء الاصطناعي من كتابة تفسير في حالة الخلاف.
في جميع الحالات ، يكون تنفيذ الذكاء الاصطناعي أكثر نشاطًا في النظام القضائي أمرًا لا مفر منه ويحتاج إلى تحديد ما يجب فعله به. يمكنك البدء بتطوير القانون الأخلاقي الخاص بـ AI على وجه التحديد لقضايا إنفاذ القانون للبدء في الإجابة على الأسئلة التي طرحها لنا حقيقة جديدة.