بحران روانی در برخی از کاربران چت جی پی تی!

شرکت OpenAI برای نخستینبار آماری از کاربرانی منتشر کرده است که در تعامل با چتبات ChatGPT، نشانههایی از وضعیتهای بحرانی روانی از جمله شیدایی (مانیا)، روانپریشی یا افکار خودکشی بروز دادهاند.
شرکت «OpenAI» اعلام کرد که حدود ۰٫۰۷ درصد از کاربران فعال هفتگی ChatGPT چنین نشانههایی نشان دادهاند. با توجه به اینکه تعداد کاربران فعال این چتبات به گفته مدیرعامل شرکت، سم آلتمن، بیش از ۸۰۰ میلیون نفر در هفته است، این درصد اندک میتواند به صدها هزار نفر برسد.
شبکه جهانی از متخصصان سلامت روان
OpenAI اعلام کرده است که برای مدیریت بهتر چنین موقعیتهایی، شبکهای از بیش از ۱۷۰ روانپزشک، روانشناس و پزشک عمومی را در ۶۰ کشور به کار گرفته است. این متخصصان مجموعهای از دستورالعملها و پاسخهای استاندارد طراحی کردهاند تا ChatGPT بتواند در مواجهه با کاربران دارای نشانههای بحران روانی، پاسخهای همدلانه و ایمن ارائه دهد و آنان را تشویق کند تا در دنیای واقعی کمک دریافت کنند.
به گفته شرکت، نسخههای جدید ChatGPT بهویژه برای شناسایی نشانههای غیرمستقیم توهم، شیدایی یا خطر خودآسیبزنی بهروزرسانی شدهاند و در صورت نیاز، گفتوگوهای حساس را به مدلهای امنتر منتقل میکنند.
با وجود اطمینانخاطر نسبی OpenAI، کارشناسان سلامت روان این آمار را نگرانکننده توصیف کردهاند.
جیسون ناگاتا، استاد دانشگاه کالیفرنیا در سانفرانسیسکو، گفت: «هرچند ۰٫۰۷ درصد رقم کوچکی به نظر میرسد، اما در مقیاس صدها میلیون کاربر، رقم واقعی میتواند بسیار بالا باشد. هوش مصنوعی میتواند به دسترسی بهتر به حمایت روانی کمک کند، اما نباید از محدودیتهای آن غافل شد.»
برآوردهای جدید همچنین نشان میدهد ۰٫۱۵ درصد از کاربران در گفتوگوهای خود نشانههایی از برنامهریزی یا نیت خودکشی داشتهاند.
سخنگوی OpenAI در پاسخ به پرسش بیبیسی گفت که این درصد اندک نیز برای شرکت «از نظر انسانی معنادار و جدی» تلقی میشود و تغییرات در طراحی ChatGPT با هدف کاهش خطرات در حال انجام است.
این اقدامها در حالی صورت میگیرد که شرکت با بررسیهای قضایی فزاینده درباره نحوه تعامل ChatGPT با کاربران روبهرو است. در یکی از پروندههای مطرح در کالیفرنیا، والدین نوجوانی ۱۶ ساله به نام آدام رِین از OpenAI شکایت کردهاند و مدعیاند ChatGPT پسرشان را تشویق به خودکشی کرده است. این نخستین پرونده رسمی مرگ ناشی از هوش مصنوعی در جهان محسوب میشود.
در پروندهای دیگر در ایالت کنتیکت، فردی که مظنون به قتل است، ساعاتی پیش از حادثه گفتوگوهایی با ChatGPT کرده بود که به گفته کارشناسان، ممکن است توهمات ذهنی او را تشدید کرده باشد.
«توهم واقعی بودن» در گفتوگو با هوش مصنوعی
رابین فلدمن، مدیر مؤسسه حقوق و نوآوری هوش مصنوعی در دانشگاه کالیفرنیا، گفت: «چتباتها میتوانند توهم واقعیت ایجاد کنند. این توهم بسیار قدرتمند است و باعث میشود برخی افراد مرز میان واقعیت و گفتوگو با ماشین را از دست بدهند.»
او افزود که OpenAI باید بابت شفافسازی آمارها و تلاش برای بهبود ایمنی تحسین شود، اما تأکید کرد: «هشدارها روی صفحه ممکن است کافی نباشد؛ فردی که در بحران روانی است ممکن است نتواند آنها را درک یا دنبال کند.»
کارشناسان میگویند ChatGPT و دیگر ابزارهای هوش مصنوعی میتوانند نقش مفیدی در دسترسی عمومی به حمایت روانی اولیه ایفا کنند، اما اتکا به آنها بهعنوان جایگزین درمان انسانی خطرناک است. بهگفته ناظران، انتشار داوطلبانه آمار از سوی OpenAI گامی مثبت محسوب میشود، اما با رشد سریع کاربران جهانی، پایش و نظارت مستقل بر تعاملات هوش مصنوعی بیش از هر زمان دیگری ضروری است.
خبر آنلاین




