سه شنبه , 6 آبان 1404 - 9:52 قبل از ظهر

«OpenAI» خبر داد: هزاران کاربر «ChatGPT» نشانه‌های بحران روانی نشان داده‌اند


به گزارش خبرآنلاین، شرکت «OpenAI» اعلام کرد که حدود ۰٫۰۷ درصد از کاربران فعال هفتگی ChatGPT چنین نشانه‌هایی نشان داده‌اند. با توجه به اینکه تعداد کاربران فعال این چت‌بات به گفته مدیرعامل شرکت، سم آلتمن، بیش از ۸۰۰ میلیون نفر در هفته است، این درصد اندک می‌تواند به صدها هزار نفر برسد.

شبکه جهانی از متخصصان سلامت روان

OpenAI اعلام کرده است که برای مدیریت بهتر چنین موقعیت‌هایی، شبکه‌ای از بیش از ۱۷۰ روان‌پزشک، روان‌شناس و پزشک عمومی را در ۶۰ کشور به کار گرفته است. این متخصصان مجموعه‌ای از دستورالعمل‌ها و پاسخ‌های استاندارد طراحی کرده‌اند تا ChatGPT بتواند در مواجهه با کاربران دارای نشانه‌های بحران روانی، پاسخ‌های همدلانه و ایمن ارائه دهد و آنان را تشویق کند تا در دنیای واقعی کمک دریافت کنند.

به گفته شرکت، نسخه‌های جدید ChatGPT به‌ویژه برای شناسایی نشانه‌های غیرمستقیم توهم، شیدایی یا خطر خودآسیب‌زنی به‌روزرسانی شده‌اند و در صورت نیاز، گفت‌وگوهای حساس را به مدل‌های امن‌تر منتقل می‌کنند.

با وجود اطمینان‌خاطر نسبی OpenAI، کارشناسان سلامت روان این آمار را نگران‌کننده توصیف کرده‌اند.

جیسون ناگاتا، استاد دانشگاه کالیفرنیا در سان‌فرانسیسکو، گفت: «هرچند ۰٫۰۷ درصد رقم کوچکی به نظر می‌رسد، اما در مقیاس صدها میلیون کاربر، رقم واقعی می‌تواند بسیار بالا باشد. هوش مصنوعی می‌تواند به دسترسی بهتر به حمایت روانی کمک کند، اما نباید از محدودیت‌های آن غافل شد.»

برآوردهای جدید همچنین نشان می‌دهد ۰٫۱۵ درصد از کاربران در گفت‌وگوهای خود نشانه‌هایی از برنامه‌ریزی یا نیت خودکشی داشته‌اند.

سخنگوی OpenAI در پاسخ به پرسش بی‌بی‌سی گفت که این درصد اندک نیز برای شرکت «از نظر انسانی معنادار و جدی» تلقی می‌شود و تغییرات در طراحی ChatGPT با هدف کاهش خطرات در حال انجام است.

این اقدام‌ها در حالی صورت می‌گیرد که شرکت با بررسی‌های قضایی فزاینده درباره نحوه تعامل ChatGPT با کاربران روبه‌رو است. در یکی از پرونده‌های مطرح در کالیفرنیا، والدین نوجوانی ۱۶ ساله به نام آدام رِین از OpenAI شکایت کرده‌اند و مدعی‌اند ChatGPT پسرشان را تشویق به خودکشی کرده است. این نخستین پرونده رسمی مرگ ناشی از هوش مصنوعی در جهان محسوب می‌شود.

در پرونده‌ای دیگر در ایالت کنتیکت، فردی که مظنون به قتل است، ساعاتی پیش از حادثه گفت‌وگوهایی با ChatGPT کرده بود که به گفته کارشناسان، ممکن است توهمات ذهنی او را تشدید کرده باشد.

«توهم واقعی بودن» در گفت‌وگو با هوش مصنوعی

رابین فلدمن، مدیر مؤسسه حقوق و نوآوری هوش مصنوعی در دانشگاه کالیفرنیا، گفت: «چت‌بات‌ها می‌توانند توهم واقعیت ایجاد کنند. این توهم بسیار قدرتمند است و باعث می‌شود برخی افراد مرز میان واقعیت و گفت‌وگو با ماشین را از دست بدهند.»

او افزود که OpenAI باید بابت شفاف‌سازی آمارها و تلاش برای بهبود ایمنی تحسین شود، اما تأکید کرد: «هشدارها روی صفحه ممکن است کافی نباشد؛ فردی که در بحران روانی است ممکن است نتواند آن‌ها را درک یا دنبال کند.»

کارشناسان می‌گویند ChatGPT و دیگر ابزارهای هوش مصنوعی می‌توانند نقش مفیدی در دسترسی عمومی به حمایت روانی اولیه ایفا کنند، اما اتکا به آن‌ها به‌عنوان جایگزین درمان انسانی خطرناک است. به‌گفته ناظران، انتشار داوطلبانه آمار از سوی OpenAI گامی مثبت محسوب می‌شود، اما با رشد سریع کاربران جهانی، پایش و نظارت مستقل بر تعاملات هوش مصنوعی بیش از هر زمان دیگری ضروری است.

منبع: بی‌بی‌سی

۵۸۵۸


Source link

درباره ی طلوع ارتباطات

ورم ایپسوم متن ساختگی با تولید سادگی نامفهوم از صنعت چاپ و با استفاده از طراحان گرافیک است

مطلب پیشنهادی

چرا آتش‌بس غزه به مرحله دوم نمی‌رود؟

تهران – ایرنا- ۹ اکتبر بود که ترامپ امضای آتش‌بس توسط حماس و اسرائیل و …

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *