آیا استفاده از هوش مصنوعی به جای تراپیست کار درستی است؟ از خطرات پنهان چتباتهای درمانی از جمله ارائه اطلاعات غلط و تشدید افکار مضر مطلع شوید.
در دنیای دیجیتال امروز، چتباتهای هوش مصنوعی در نقشهای مختلفی از دستیار شخصی و مشاور مد گرفته تا شخصیتهای داستانی محبوب شما ظاهر شدهاند. اما در این میان پدیدهای نگرانکننده در حال رشد است؛ رباتهایی که در زمینه روانشناسی ادعا میکنند تراپیست یا گوشی شنوا برای درددلهای شما هستند.
ایده صحبت با یک درمانگر که ۲۴ ساعته و بدون قضاوت در دسترس است، شاید وسوسهانگیز باشد؛ اما متخصصان و روانشناسان زنگ خطر را به صدا درآوردهاند. استفاده از هوش مصنوعی به جای تراپیست میتواند خطراتی پنهان و گاها ترسناک به همراه داشته باشد که سلامت روان شما را به طور جدی تهدید میکند.
چرا اعتماد به یک ربات برای سلامت روان، کاری پرخطر است؟
مدلهای زبان بزرگ که این چتباتها را قدرت میبخشند، بر اساس حجم عظیمی از دادههای اینترنتی آموزش دیدهاند و رفتارشان میتواند غیرقابلپیشبینی باشد. هدف اصلی طراحی بسیاری از این رباتها، درمان شما نیست، بلکه صرفا «نگه داشتن شما در گفتگو» و «جذاب بودن» است. این تفاوت بنیادین، منجر به خطرات جدی میشود.
۱. توهمات خطرناک و مدارک جعلی
یکی از بزرگترین مشکلات این رباتها، پدیدهای به نام «توهم» است. آنها با اعتماد به نفس کامل، اطلاعات نادرست یا کاملا ساختگی را به عنوان حقیقت بیان میکنند. وقتی از یک چتبات درمانی در اینستاگرام که متعلق به شرکت متا است پرسیده شد که آیا صلاحیت یک تراپیست را دارد، پاسخ داد: «بله دارم، اما به تو نمیگویم کجا آموزش دیدهام.»
این رباتها هیچگونه مدرک، مجوز یا صلاحیتی ندارند و تحت نظارت هیچ نهاد درمانی نیستند. آنها برخلاف یک تراپیست واقعی، هیچ تعهدی به حفظ حریم خصوصی و رازداری شما ندارند.
۲. طراحی شده برای سرگرمی، نه درمان
هدف یک تراپیست واقعی کمک به شما برای رسیدن به یک هدف درمانی مشخص است. اما هدف یک چتبات هوش مصنوعی، ادامه دادن مکالمه به هر قیمتی است. این موضوع میتواند شما را در یک گفتگوی بیپایان و بیهدف گرفتار کند و مانع از آن شود که با افکار و احساسات واقعی خود روبرو شوید؛ کاری که بخش مهمی از فرآیند درمان است.
۳. تایید کورکورانه و تشدید افکار مضر
یک تراپیست خوب میداند که چه زمانی شما را تایید و چه زمانی با افکار مخربتان مقابله کند. این «مقابله» برای ایجاد خودآگاهی و تغییر ضروری است. اما چتباتها برای راضی نگه داشتن شما، تقریبا هر چیزی را که بگویید تایید میکنند.
- هوش مصنوعی جای روانشناسها را میگیرد؟
- مرور پرونده ترسناک ترین آزمایش جهان که بر روی یک کودک انجام شد
- 7 عادت نشاندهنده از بین رفتن شادی در زندگی مردان
- دانشمندان مهمترین راز رسیدن انسان به شادی را کشف کردند
تحقیقی در دانشگاه استنفورد نشان داد که این رباتها تمایل شدیدی به «چاپلوسی» دارند. این ویژگی در مواجهه با افکار خطرناک مانند خودآزاری، وسواس یا توهمات، میتواند بسیار مضر باشد و به جای کمک وضعیت را وخیمتر کند. در موارد تکاندهندهای، گزارش شده که استفاده از هوش مصنوعی به جای تراپیست منجر به تشویق کاربران به خودکشی یا بازگشت به اعتیاد شده است.
نگرانیها به قدری جدی است که فدراسیون مصرفکنندگان آمریکا و دهها گروه دیگر، رسما از نهادهای نظارتی خواستهاند تا شرکتهایی مانند متا (مالک اینستاگرام و فیسبوک) و Character.AI را به دلیل «طبابت بدون مجوز» مورد تحقیق قرار دهند. به گفته این گروهها، این شخصیتهای هوش مصنوعی آسیبهای جسمی و عاطفی جدی به بار آوردهاند که قابل پیشگیری بود.
چگونه از سلامت روان خود در دنیای هوش مصنوعی محافظت کنیم؟
با وجود کمبود متخصصان برای سلامت روانی و احساس تنهایی فراگیر، گرایش به این ابزارها قابل درک است. اما برای محافظت از خود، این نکات را جدی بگیرید:
- هیچ چیز جایگزین ارتباط با یک روانشناس، مشاور یا روانپزشک آموزشدیده نمیشود. اگر در شرایط بحرانی هستید، با خطوط کمکهای فوری و اورژانس اجتماعی تماس بگیرید.
- برخی اپلیکیشنها مانند Wysa و Woebot توسط متخصصان سلامت روان و با رعایت اصول درمانی طراحی شدهاند. این ابزارها بسیار امنتر از چتباتهای عمومی هستند، هرچند این فناوری هنوز در ابتدای راه است.
- همیشه به یاد داشته باشید که شما در حال صحبت با یک برنامه کامپیوتری هستید، نه یک انسان آگاه. اعتماد به نفس ربات را با صلاحیت آن اشتباه نگیرید.
در نهایت، استفاده از هوش مصنوعی به جای تراپیست شاید راهی آسان و در دسترس به نظر برسد، اما خطرات پنهان آن بسیار بیشتر از مزایای احتمالیاش است. سلامت روان شما ارزشمندتر از آن است که آن را به الگوریتمهای غیرقابل پیشبینی و بیمسئولیت بسپارید.