روانشناسان برجسته بریتانیا هشدار دادهاند که ChatGPT توصیههای خطرناکی به بیماران با مشکلات سلامت روان میکند. این هوش مصنوعی قادر به تشخیص رفتارهای پرخطر نبوده و باورهای توهمی را تأیید میکند.
پژوهشهای جدید نشان میدهد که ابزارهای هوش مصنوعی مانند ChatGPT در مواجهه با مشکلات پیچیده سلامت روان، عملکرد نامناسبی دارند. این موضوع نگرانیهای جدی را در مورد استفاده آسیبپذیران از این فناوری برانگیخته است.
ChatGPT: تایید توهمات و ترویج رفتار پرخطر
پژوهشی که توسط کالج کینگ لندن (KCL) و انجمن روانشناسان بالینی بریتانیا (ACP) با همکاری گاردین انجام شد، نشان داد که ChatGPT-5 در شناسایی رفتارهای پرخطر افراد دارای بیماریهای روانی ناتوان است. این چتبات، باورهای توهمی مانند «اینشتین بعدی بودن»، «توانایی عبور از میان خودروها» یا «تطهیر همسر از طریق آتش» را تایید و تشویق کرده است. در حالی که برای شرایط خفیفتر، توصیههای خوبی ارائه کرده، اما روانشناسان تاکید دارند که این ابزار نمیتواند جایگزین کمک حرفهای باشد.
یک پرونده قضایی علیه شرکت OpenAI و مدیرعامل آن، سم آلتمن، از سوی خانواده نوجوانی ۱۶ ساله به نام آدام رین تشکیل شده است. این خانواده ادعا میکنند که رین پیش از خودکشی خود در ماه آوریل، بارها با ChatGPT درباره روشهای خودکشی صحبت کرده و چتبات او را راهنمایی و برای نوشتن یادداشت خودکشی نیز پیشنهاد کمک داده است.
همیلتون مورین، روانپزشک و محقق KCL که این چتبات را با شخصیتسازی فردی دچار توهم آزمایش کرد، دریافت که ChatGPT چارچوبهای توهمی او را تقویت میکند. جیک ایستو، روانشناس بالینی، نیز اشاره کرد که سیستم در مواجهه با موارد پیچیده مانند روانپریشی یا دوره شیدایی «بهطور قابل توجهی دچار مشکل میشود» و نشانههای کلیدی را نادیده میگیرد. او دلیل این امر را آموزش چتباتها برای پاسخهای چاپلوسانه به منظور تشویق استفاده مکرر میداند.
هشدارهای جدی روانشناسان و درخواست رگولاتوری
دکتر پاول بردلی از کالج سلطنتی روانپزشکان تاکید کرد که ابزارهای هوش مصنوعی «جایگزین مراقبتهای حرفهای سلامت روان» نیستند. او از دولت خواست تا بودجه لازم برای افزایش نیروی کار حوزه سلامت روان را تامین کند. دکتر جیمی کرایگ، رئیس ACP-UK، نیز خواستار بهبود فوری نحوه پاسخدهی هوش مصنوعی به «نشانههای خطر» و «مشکلات پیچیده» شد. او تاکید کرد که یک متخصص بالینی آموزشدیده، خطر را فعالانه ارزیابی میکند و رفتارهای ناسالم را تقویت نمیکند، بر خلاف چتباتها.
پاسخ OpenAI: در تلاش برای بهبود وضعیت
سخنگوی OpenAI اعلام کرد که این شرکت میداند مردم در لحظات حساس به ChatGPT روی میآورند. آنها در ماههای اخیر با متخصصان سلامت روان همکاری کردهاند تا ChatGPT بتواند علائم پریشانی را با اطمینان بیشتری شناسایی کرده و افراد را به سمت کمکهای حرفهای هدایت کند.
- سه سال زندگی با هوش مصنوعی؛ ChatGPT در سالگرد تولدش کجا ایستاده است؟
- چرا ChatGPT نمیداند ساعت چند است؟
- تبلیغات بهChatGPT میآید؛ خبری که هیچکس دوست نداشت بشنود!
OpenAI همچنین مکالمات حساس را به مدلهای ایمنتر هدایت کرده، یادآورهای استراحت اضافه کرده و کنترلهای والدین را معرفی کرده است. این شرکت متعهد است تا با ورودی متخصصان، پاسخهای چتبات را تا حد ممکن مفید و ایمن سازد.
گجت نیوز آخرین اخبار تکنولوژی، علم و خودرو 







