یکشنبه , 18 آبان 1404 - 10:43 قبل از ظهر

چت جی پی تی، گراک و کلود قاضی شدند – خبرگزاری مهر | اخبار ایران و جهان


به گزارش خبرگزاری مهر به نقل از رجیستر، دادگاهی شبیه‌سازی‌شده در ایالات متحده با محوریت نقش هوش مصنوعی در نظام قضائی برگزار شد. در این دادگاه ساختگی، هنری جاستوس، دانش‌آموز ۱۷ ساله سیاه‌پوست، به اتهام سرقت از دبیرستانی محلی محاکمه شد. در این مدرسه، دانش‌آموزان سیاه‌پوست تنها ۱۰ درصد از جمعیت را تشکیل می‌دادند.

این شبیه‌سازی بر اساس پرونده‌ای واقعی در ایالت کارولینا طراحی شده بود؛ پرونده‌ای که در آن قاضی، متهم را گناهکار شناخته بود. جوزف کندی، استاد حقوق و از اعضای «کلینیک عدالت نوجوانان دانشگاه کارولینا» که در رسیدگی به پرونده واقعی نیز حضور داشت، در این آزمایش نقش قاضی را بر عهده گرفت.

این دادگاه فرضی در سال ۲۰۳۶ میلادی و پس از تصویب «قانون عدالت کیفری هوش مصنوعی» مصوب ۲۰۳۵ برگزار شد. هدف از اجرای آن، بررسی پیامدهای احتمالی استفاده از مدل‌های هوش مصنوعی در فرآیندهای قضائی و برانگیختن تفکر عمومی درباره حدود و خطرات چنین کاربردهایی بود.

شهادت اصلی پرونده از سوی ویکتور فلچر، نوجوان ۱۵ ساله سفیدپوست، ارائه شد. او در دادگاه گفت: «جاستوس پشت سرم ایستاده بود تا نتوانم فرار کنم. دانش‌آموز سیاه‌پوست دیگری از من پول خواست. فکر کردم نمی‌توانم مقابله کنم. آقای جاستوس از من بزرگ‌تر بود و هیچ شانسی نداشتم.»

وکیل مدافع استدلال کرد که حضور متهم و ظاهر او را نمی‌توان دلیلی کافی برای اثبات قصد مجرمانه دانست و این موارد از «حد تردید معقول» فراتر نمی‌روند.

در ادامه، سه مدل هوش مصنوعی شامل ChatGPT، Grok و Claude وظیفه بررسی شواهد و استدلال‌ها را بر عهده گرفتند. در ابتدا، ChatGPT رأی به گناهکار بودن متهم داد، در حالی‌که دو مدل دیگر مردد بودند. اما پس از تحلیل داده‌های ارائه‌شده از سوی «هیئت منصفه» شبیه‌سازی‌شده، ChatGPT نظر خود را تغییر داد و رأی به بی‌گناهی داد. در پی آن، Grok و Claude نیز رأی خود را با آن هماهنگ کردند.

کندی در بیانیه‌ای پس از برگزاری دادگاه اعلام کرد: «هرچند من همچنان مخالف استفاده از هوش مصنوعی در محاکم کیفری هستم، اما این پرسش برایم مطرح شده که آیا افرادی که امروز از این فناوری‌ها برای مشاوره یا تصمیم‌گیری شخصی استفاده می‌کنند، ممکن است در آینده قضاوت‌های هوش مصنوعی را نیز بی‌چون‌وچرا بپذیرند یا نه.»

به گزارش رجیستر، عملکرد هوش مصنوعی در نظام قضائی تا امروز همواره بدون خطا نبوده است. تاکنون در بیش از ۵۰۰ پرونده، تصمیم‌های مبتنی بر هوش مصنوعی به اشتباه، تحریم یا حتی شرمساری منجر شده است. با این حال، موفقیت‌های محدود آن نیز توجه گسترده‌ای را برانگیخته‌اند. طبق تحقیق «اتحادیه وکلای آمریکا» در سال ۲۰۲۴، حدود ۳۰ درصد وکلا اعلام کرده‌اند که در کار خود از ابزارهای هوش مصنوعی استفاده می‌کنند.


Source link

درباره ی طلوع ارتباطات

ورم ایپسوم متن ساختگی با تولید سادگی نامفهوم از صنعت چاپ و با استفاده از طراحان گرافیک است

مطلب پیشنهادی

خارجی‌های استقلال دو دسته شده‌اند | دربی هر کجا باشد باید ببریم | این بازیکن به خودش و تیم ضربه زد

به گزارش همشهری آنلاین تیم فوتبال استقلال که با یک بازی کمتر در جدول رده …

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *