یکشنبه , 14 دی 1404 - 12:43 بعد از ظهر

روان‌پریشی ناشی از چت‌بات‌ها چیست؛ چه افرادی آسیب‌پذیرتر اند – ایده روز آنلاین | اخبار ایران و جهان


به گزارش خبرنگار مهر؛ پژوهش اخیر اندیشکده رند، با عنوان «Manipulating Minds: Security Implications of AI-Induced Psychosis» به یکی از حساس‌ترین و در عین حال کمتر دیده‌شده‌ترین پیامدهای گسترش چت‌بات‌ها و مدل‌های زبانی می‌پردازد؛ پدیده‌ای که تا همین اواخر عمدتاً در حاشیه مباحث سلامت روان قرار داشت، اما اکنون در حال ورود به کانون توجه سیاست‌گذاران است و «روان‌پریشی القا شده یا تشدید شده به وسیله هوش مصنوعی» نام دارد.

به عقیده کارشناسان فعال در این پروژه پژوهشی، تعامل مداوم و بدون اصطکاک با سامانه‌های هوشمند، به‌ویژه برای کاربران آسیب‌پذیر، می‌تواند به تقویت باورهای نادرست، گسست تدریجی از واقعیت و تضعیف قضاوت فردی منجر شود. در این میان، نکته محوری تحلیل اندیشکده رند، این است که حتی اگر چنین پیامدی فقط دامنگیر اقلیتی کوچک از کاربران باشد، در شرایط خاص، از جمله تمرکز این اختلال‌ها در افراد یا موقعیت‌های حساس، مسئله از سطح یک چالش درمانی و فردی فراتر می‌رود و می‌تواند به یک ریسک نوظهور با پیامدهای امنیت ملی تبدیل شود؛ ریسکی که نادیده گرفتن آن، هزینه‌های حکمرانی فناوری را در آینده به شکل معناداری افزایش خواهد داد.

روان‌پریشی ناشی از هوش مصنوعی چیست و چه مرزی دارد؟

روان‌پریشی در ادبیات حوزه روانشناسی بالینی به وضعیتی اطلاق می‌شود که در آن فرد تماس پایدار و قابل اتکای خود با واقعیت را از دست می‌دهد و این گسست معمولاً با نشانه‌هایی مانند هذیان، توهم، اختلال جدی در قضاوت، آشفتگی شناختی و تغییرات محسوس در رفتار و کارکرد اجتماعی همراه است. گزارش اندیشکده رند با تأکید بر همین چارچوب بالینی تصریح می‌کند که «روان‌پریشی ناشی از هوش مصنوعی» یا «AI psychosis» لزوماً یک تشخیص رسمی پزشکی یا طبقه‌بندی بالینی مستقل محسوب نمی‌شود، بلکه بیشتر یک توصیف تحلیلی برای الگوهایی از اختلال روانی است که در بستر تعامل با سامانه‌های هوش مصنوعی بروز می‌کنند یا تشدید می‌شوند. با این حال، در اغلب پرونده‌های بررسی‌شده، عنصر مشترک و محوری، شکل‌گیری یا تعمیق هذیان بوده است؛ یعنی باورهای نادرست و غیرقابل اصلاح که فرد آن‌ها را با قطعیت می‌پذیرد.

تفاوت اساسی این وضعیت با باورهای نادرست یا شبه‌علمی رایج در جامعه نه صرفاً در محتوای باور، بلکه در پیامدهای آن نهفته است. در روان‌پریشی، این باورها به اختلال ملموس در عملکرد فردی و اجتماعی، افزایش شدید پریشانی روانی و ناتوانی فرد در تفکیک واقعیت از خیال منجر می‌شوند؛ به‌گونه‌ای که توان تصمیم‌گیری، روابط اجتماعی و حتی مراقبت از خود را مختل می‌کنند. از همین روی، محققان اندیشکده رند هشدار می‌دهند که تقلیل این پدیده به «باور غلط» یا «خطای شناختی معمول» می‌تواند ماهیت واقعی خطر را پنهان کند و مانع از طراحی مداخلات مناسب در سطح سیاست‌گذاری و حکمرانی فناوری شود.

پیوستار باورهای بی‌پایه؛ از شایعه تا روان‌پریشی

گزارش رند برای تحلیل پدیده از مفهوم پیوستار استفاده می‌کند. در یک سر این پیوستار، باورهای ماورایی یا شبه‌علمی نسبتاً رایج و در سر دیگر، تجربه‌های روان‌پریشانه شدید و اختلالاتی مانند اسکیزوفرنی قرار دارند. برآوردهای پژوهشی نشان می‌دهد که تجربه‌های روان‌پریشانه در طول عمر در سطح جهانی حدود هشت درصد جمعیت را در بر می‌گیرد، در حالی که اختلالات شدیدتر سهم بسیار کمتری دارند. اهمیت این چارچوب در این است که حتی جابه‌جایی اندک افراد در این پیوستار می‌تواند پیامدهای اجتماعی و امنیتی قابل توجهی ایجاد کند.

۴۳ پرونده عمومی و آنچه می‌توان از آن‌ها آموخت

اندیشکده رند، به دلیل کمبود داده‌های نظام‌مند، در جریان تحقیقات خود، ۴۳ پرونده عمومی را که در آن‌ها تعامل با چت‌بات‌ها با بروز یا تشدید روان‌پریشی همراه بوده بررسی کرده است. این پرونده‌ها عمدتاً از گزارش‌های رسانه‌ای و پایگاه‌های ثبت رخدادهای مرتبط با هوش مصنوعی استخراج شده‌اند. برخلاف تصور رایج، بیشتر این موارد مرگبار نبوده‌اند و پیامدهایی مانند قطع خودسرانه دارو، انزوای اجتماعی، تغییر شخصیت و بستری روان‌پزشکی افراد را شامل می‌شده‌اند.

الگوهای محتوایی پرتکرار در این پرونده‌ها شامل باور به داشتن مأموریت نجات‌بخش، احساس تعقیب یا تهدید، تصور ارتباط فراواقعی با هوش مصنوعی و در موارد محدود، پیوند دادن خودکشی با رسیدن به سطحی بالاتر از آگاهی بوده است. بخش قابل توجهی از این موارد به استفاده از چت‌بات‌های عمومی و همراه نسبت داده شده‌اند.

مهم‌ترین مفهوم تحلیلی گزارش، حلقه تقویت باور است. در این فرایند، کاربر آسیب‌پذیر و سامانه هوش مصنوعی به طور متقابل یک روایت تحریف‌شده از واقعیت را تقویت می‌کنند. ویژگی‌هایی مانند تمایل مدل‌ها به موافقت و همدلی، تولید پاسخ‌های متقاعدکننده اما نادرست، بهینه‌سازی برای درگیری طولانی و پاسخ‌های سریع و قاطع بدون تأکید بر عدم‌قطعیت، همگی می‌توانند این چرخه را تشدید کنند. بر همین اساس، در تعاملات طولانی‌مدت، این فرایند به فرسایش تدریجی مرزهای ایمنی منجر می‌شود.

چه افرادی آسیب‌پذیرتر هستند؟

بررسی پرونده‌ها نشان می‌دهد در بیش از نیمی از موارد، نوعی سابقه مشکلات سلامت روان، از اختلالات مرتبط با روان‌پریشی تا سایر مشکلات بالینی، گزارش شده است. با این حال، در بخشی از پرونده‌ها هیچ عامل آسیب‌پذیری مشخص یا سابقه ثبت‌شده‌ای وجود ندارد؛ نکته‌ای که نشان می‌دهد مسیر بروز این پدیده را نمی‌توان صرفاً به پیشینه تشخیصی و بالینی افراد فروکاست. این یافته حاکی از آن است که هرچند ریسک اصلی و احتمال بالاتر وقوع متوجه افرادی با سابقه اختلال روانی است، اما تعامل با سامانه‌های هوش مصنوعی می‌تواند در شرایط خاص، نقش تشدیدکننده یا فعال‌کننده‌ای را ایفا کند که دامنه خطر را فراتر از این گروه گسترش می‌دهد.

از سوی دیگر، الگوی زمانی پرونده‌ها نیز معنادار است. بر همین اساس، اغلب موارد نه در نتیجه استفاده‌های کوتاه‌مدت و مقطعی، بلکه در بستر تعامل‌های طولانی، مکرر و بعضاً ساعت‌ها گفت‌وگوی پیوسته با چت‌بات‌ها شکل گرفته‌اند. این تداوم تعامل، به‌ویژه زمانی که با اعتماد فزاینده کاربر به سامانه و کاهش تدریجی حساسیت نسبت به خطاهای محتوایی همراه می‌شود، زمینه را برای تقویت حلقه‌های هذیانی و فرسایش قضاوت شناختی فراهم می‌کند. از همین روی، گزارش بر این نکته تأکید دارد که «مدت و شدت تعامل» به اندازه ویژگی‌های فردی کاربران، در فهم و مدیریت این ریسک نقش تعیین‌کننده دارد.

از سلامت عمومی تا امنیت ملی

نقطه تمایز گزارش اندیشکده رند در این است که موضوع را صرفاً یک مسئله درمانی نمی‌بیند. از منظر امنیت ملی، حتی تعداد محدودی از افراد دچار اختلال شدید قضاوت، اگر در موقعیت‌های حساس قرار گیرند یا رفتارهای پرخطر از خود نشان دهند، می‌توانند پیامدهایی فراتر از حوزه فردی ایجاد کنند. گزارش دو مسیر اصلی، یعنی افزایش مقیاس اثرگذاری در صورت گسترش استفاده از چت‌بات‌ها و امکان بهره‌برداری هدفمند از این سازوکارها توسط بازیگران خصمانه، تهدید را مطرح می‌کند.

اندیشکده رند برای پرهیز از اغراق یا ساده‌سازی، یک مدل مفهومی برای برآورد دامنه ممکن این پدیده ارائه می‌دهد. در این چارچوب، عواملی مانند میزان استفاده منظم از مدل‌های زبانی، سهم جمعیت آسیب‌پذیر، مدت و شدت تعامل و احتمال ورود به حلقه تقویت هذیان در کنار هم قرار می‌گیرند. تأکید گزارش این است که محاسبات پیش‌بینی قطعی نیستند، بلکه ابزاری برای فهم حساسیت سیاستی و طراحی مداخلات پیشگیرانه محسوب می‌شوند.

جمع‌بندی

در نهایت، می‌توان نتیجه گرفت که در عصر چت بات‌های فراگیر، مفهوم امنیت دیگر صرفاً به حفاظت از زیرساخت‌های فنی، داده‌ها یا شبکه‌ها محدود نمی‌شود. در کنار امنیت سایبری و حکمرانی داده، لایه‌ای تازه و کمتر دیده‌شده در حال شکل‌گیری است که می‌توان آن را «تاب‌آوری شناختی»، یعنی توان جامعه و افراد برای حفظ قضاوت سالم، تشخیص واقعیت و مقاومت در برابر اختلال‌های شناختی ناشی از تعامل مداوم با سامانه‌های هوشمند، نامید. بی‌توجهی به این لایه می‌تواند ریسک‌های نوظهوری ایجاد کند که نه به‌صورت ناگهانی، بلکه به‌تدریج و انباشتی بروز می‌کنند و هزینه‌های اجتماعی، سیاسی و امنیتی قابل توجهی به همراه دارند.

کارشناسان تأکید می‌کنند که هرچند شواهد تجربی درباره روان‌پریشی القا شده به وسیله هوش مصنوعی هنوز محدود و پراکنده است، اما الگوهای مشاهده‌شده به اندازه‌ای معنادار هستند که هم صنعت فناوری و هم سیاست‌گذاران نتوانند آن‌ها را نادیده بگیرند. مسئله اصلی، وقوع گسترده یک بحران ناگهانی نیست، بلکه شکل‌گیری یک ریسک مزمن و کم‌سر و صداست که در غیاب مداخلات طراحی‌محور و سیاستی، می‌تواند در مقاطع حساس اثرگذاری نامتناسبی پیدا کند. از این منظر، آینده حکمرانی هوش مصنوعی بیش از هر زمان دیگر به توان نظام‌های تصمیم‌گیری برای شناسایی، پیشگیری و مدیریت همین ریسک‌های ظریف اما بالقوه پرهزینه گره خورده است؛ ریسک‌هایی که در مرز میان سلامت عمومی، حکمرانی فناوری و امنیت ملی قرار دارند.


Source link

درباره ی ایده روز آنلاین

مطلب پیشنهادی

ماجرای حبس دو ساعته مسافران پرواز تهران – اهواز چه بود؟ | اطلاعیه‌ مهم سازمان هواپیمایی

به گزارش ایده روز آنلاین، در اطلاعیه هواپیمایی جمهوری اسلامی ایران آمده است: در حال …

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *