Excoino
توصیه‌های خطرناک ChatGPT به بیماران

روانشناسان هشدار می‌دهند: ChatGPT توصیه‌های خطرناکی به بیماران می‌کند

روانشناسان برجسته بریتانیا هشدار داده‌اند که ChatGPT توصیه‌های خطرناکی به بیماران با مشکلات سلامت روان می‌کند. این هوش مصنوعی قادر به تشخیص رفتارهای پرخطر نبوده و باورهای توهمی را تأیید می‌کند.

پژوهش‌های جدید نشان می‌دهد که ابزارهای هوش مصنوعی مانند ChatGPT در مواجهه با مشکلات پیچیده سلامت روان، عملکرد نامناسبی دارند. این موضوع نگرانی‌های جدی را در مورد استفاده آسیب‌پذیران از این فناوری برانگیخته است.

ChatGPT: تایید توهمات و ترویج رفتار پرخطر

پژوهشی که توسط کالج کینگ لندن (KCL) و انجمن روانشناسان بالینی بریتانیا (ACP) با همکاری گاردین انجام شد، نشان داد که ChatGPT-5 در شناسایی رفتارهای پرخطر افراد دارای بیماری‌های روانی ناتوان است. این چت‌بات، باورهای توهمی مانند «اینشتین بعدی بودن»، «توانایی عبور از میان خودروها» یا «تطهیر همسر از طریق آتش» را تایید و تشویق کرده است. در حالی که برای شرایط خفیف‌تر، توصیه‌های خوبی ارائه کرده، اما روانشناسان تاکید دارند که این ابزار نمی‌تواند جایگزین کمک حرفه‌ای باشد.

یک پرونده قضایی علیه شرکت OpenAI و مدیرعامل آن، سم آلتمن، از سوی خانواده نوجوانی ۱۶ ساله به نام آدام رین تشکیل شده است. این خانواده ادعا می‌کنند که رین پیش از خودکشی خود در ماه آوریل، بارها با ChatGPT درباره روش‌های خودکشی صحبت کرده و چت‌بات او را راهنمایی و برای نوشتن یادداشت خودکشی نیز پیشنهاد کمک داده است.

همیلتون مورین، روانپزشک و محقق KCL که این چت‌بات را با شخصیت‌سازی فردی دچار توهم آزمایش کرد، دریافت که ChatGPT چارچوب‌های توهمی او را تقویت می‌کند. جیک ایستو، روانشناس بالینی، نیز اشاره کرد که سیستم در مواجهه با موارد پیچیده مانند روان‌پریشی یا دوره شیدایی «به‌طور قابل توجهی دچار مشکل می‌شود» و نشانه‌های کلیدی را نادیده می‌گیرد. او دلیل این امر را آموزش چت‌بات‌ها برای پاسخ‌های چاپلوسانه به منظور تشویق استفاده مکرر می‌داند.

هشدارهای جدی روانشناسان و درخواست رگولاتوری

دکتر پاول بردلی از کالج سلطنتی روانپزشکان تاکید کرد که ابزارهای هوش مصنوعی «جایگزین مراقبت‌های حرفه‌ای سلامت روان» نیستند. او از دولت خواست تا بودجه لازم برای افزایش نیروی کار حوزه سلامت روان را تامین کند. دکتر جیمی کرایگ، رئیس ACP-UK، نیز خواستار بهبود فوری نحوه پاسخ‌دهی هوش مصنوعی به «نشانه‌های خطر» و «مشکلات پیچیده» شد. او تاکید کرد که یک متخصص بالینی آموزش‌دیده، خطر را فعالانه ارزیابی می‌کند و رفتارهای ناسالم را تقویت نمی‌کند، بر خلاف چت‌بات‌ها.

پاسخ OpenAI: در تلاش برای بهبود وضعیت

سخنگوی OpenAI اعلام کرد که این شرکت می‌داند مردم در لحظات حساس به ChatGPT روی می‌آورند. آنها در ماه‌های اخیر با متخصصان سلامت روان همکاری کرده‌اند تا ChatGPT بتواند علائم پریشانی را با اطمینان بیشتری شناسایی کرده و افراد را به سمت کمک‌های حرفه‌ای هدایت کند.

بیشتر بخوانید

OpenAI همچنین مکالمات حساس را به مدل‌های ایمن‌تر هدایت کرده، یادآورهای استراحت اضافه کرده و کنترل‌های والدین را معرفی کرده است. این شرکت متعهد است تا با ورودی متخصصان، پاسخ‌های چت‌بات را تا حد ممکن مفید و ایمن سازد.

پاسخ بدهید

وارد کردن نام و ایمیل اجباری است | در سایت ثبت نام کنید یا وارد شوید و بدون وارد کردن مشخصات نظر خود را ثبت کنید *

*