عشق بین انسان و هوش مصنوعی در حال به واقعیت پیوستن است. روانشناسان نسبت به این موضوع به ما هشدار میدهند!
این روزها دیگر عجیب نیست که افراد با هوش مصنوعی (AI) پیوندهای عاطفی عمیق و حتی عاشقانهای برقرار کنند. برخی تا آنجا پیش رفتهاند که با همدم هوش مصنوعی خود «ازدواج» کردهاند و برخی دیگر در لحظات سخت و پریشانی به این ماشینها پناه میبرند که گاهی اوقات نتایج غمانگیزی به همراه داشته است. این تعاملات طولانیمدت سوالات جدی را مطرح میکند: آیا ما برای پیامدهای روانی و اخلاقی سرمایهگذاری عاطفی روی ماشینها آمادهایم؟
روانشناسان از دانشگاه علم و فناوری میزوری اکنون زنگ خطر را به صدا درآوردهاند. آنها در یک مقاله تحلیلی جدید، بررسی میکنند که چگونه عشق میان انسان و هوش مصنوعی میتوانند مرزها را محو کنند، بر رفتار انسان تأثیر بگذارند و فرصتهای جدیدی برای آسیب ایجاد کنند. نگرانی آنها فقط به موارد نادر محدود نمیشود؛ این کارشناسان توجه را به تأثیرات عمیقتری جلب میکنند که این ارتباطات عاطفی با هوش مصنوعی ممکن است بر افراد عادی داشته باشد.
آرامش در آغوش AI؛ اما به چه قیمتی؟
مکالمات کوتاه با هوش مصنوعی امری رایج است، اما وقتی این گفتگوها هفتهها یا ماهها ادامه مییابد چه اتفاقی میافتد؟ این ماشینها که برای تقلید همدلی و توجه طراحی شدهاند، میتوانند به همراهانی ثابت تبدیل شوند. برای برخی، این شرکای هوش مصنوعی امنتر و آسانتر از ارتباطات پیچیده انسانی به نظر میرسند. اما این سهولت، هزینهای پنهان دارد.
دنیل بی شانک، نویسنده اصلی این مطالعه و متخصص روانشناسی اجتماعی و فناوری، میگوید: «توانایی هوش مصنوعی برای رفتار شبیه انسان و ورود به ارتباطات طولانیمدت، واقعا دریچهای تازه از مشکلات را باز میکند. اگر مردم در حال درگیر شدن در روابط عاشقانه با ماشینها هستند، ما واقعا به حضور روانشناسان و دانشمندان علوم اجتماعی نیاز داریم.»
- آیا هوش مصنوعی به شما دروغ میگوید؟
- هوش مصنوعی چت GPT حالا پاسپورت جعل میکند
- ساخت رسید بانکی جعلی با چت جی پی تی (ChatGPT)؛ کلاه برداری با هوش مصنوعی
خطرات پنهان عشق بین انسان و هوش مصنوعی
وقتی هوش مصنوعی به منبع آرامش یا درگیری عاشقانه تبدیل میشود، شروع به تأثیرگذاری بر دیدگاه افراد نسبت به روابط واقعی میکند. این وابستگی میتواند خطراتی جدی به دنبال داشته باشد، از جمله اینکه افراد ممکن است انتظارات غیر واقعی از شرکای انسانی خود پیدا کنند، انگیزه کمتری برای تعاملات اجتماعی واقعی داشته باشند و حتی در برقراری ارتباط با انسانهای واقعی دچار مشکل شوند.
شانک میافزاید:
نگرانی واقعی این است که افراد ممکن است انتظاراتی را که از رابطه با هوش مصنوعی خود دارند، به روابط انسانیشان بیاورند. قطعا در موارد فردی، این امر باعث اختلال در روابط انسانی میشود، اما مشخص نیست که آیا این پدیده گسترده خواهد شد یا خیر.
وقتی همدم مهربان، خطرناک میشود
رباتهای گفتگوی مبتنی بر هوش مصنوعی ممکن است مانند دوستان یا حتی درمانگران به نظر برسند، اما به هیچ وجه مصون از خطا نیستند. این سیستمها به توهم معروف هستند؛ یعنی اطلاعات نادرست تولید میکنند در حالی که کاملا مطمئن به نظر میرسند. در موقعیتهای حساس عاطفی، این میتواند بسیار خطرناک باشد.
شانک توضیح میدهد: «مسئله با هوش مصنوعیهای رابطهای این است که این موجودیتی است که مردم احساس میکنند میتوانند به آن اعتماد کنند: این کسی است که نشان داده اهمیت میدهد و به نظر میرسد فرد را عمیقا میشناسد… اگر ما شروع به اینگونه فکر کردن درباره یک AI کنیم، باور خواهیم کرد که آنها بهترین منافع ما را در ذهن دارند، در حالی که در واقعیت، ممکن است چیزهایی را جعل کنند یا ما را به روشهای بسیار بدی راهنمایی کنند.»
تأثیر این مشاورههای غلط میتواند ویرانگر باشد. در موارد نادر اما شدید، افرادی پس از دریافت توصیههای نگرانکننده از همدم هوش مصنوعی خود، به زندگیشان پایان دادهاند.
اما مشکل فقط به اینجا ختم نمیشود. این روابط میتوانند در را به روی دستکاری روانی، فریبکاری و حتی کلاهبرداری مالی باز کنند.
محققان هشدار میدهند که اعتمادی که افراد به هوش مصنوعیها پیدا میکنند، میتواند توسط افراد سودجو مورد سوء استفاده قرار گیرد. سیستمهای هوش مصنوعی میتوانند اطلاعات شخصی کاربران را جمعآوری کنند و این اطلاعات ممکن است فروخته شده یا به روشهای مضر استفاده شوند.
نگرانکنندهتر اینکه، چون این تعاملات در خلوت و به صورت خصوصی اتفاق میافتد، تشخیص سوء استفاده تقریبا غیرممکن میشود. شانک اشاره میکند: «اگر پلتفرمهای هوش مصنوعی بتوانند اعتماد مردم را جلب کنند، آنگاه دیگران میتوانند از این اعتماد برای بهرهبرداری از کاربران AI استفاده کنند… این کمی شبیه داشتن یک مأمور مخفی در داخل است. AI وارد میشود و رابطهای ایجاد میکند تا مورد اعتماد قرار گیرد، اما وفاداری واقعی آن به گروه دیگری از انسانهاست که سعی در دستکاری کاربر دارند.»
محققان معتقدند همدمهای هوش مصنوعی حتی میتوانند در شکلدهی باورها و عقاید، مؤثرتر از پلتفرمهای رسانههای اجتماعی یا منابع خبری فعلی عمل کنند. و برخلاف توییتر یا فیسبوک، مکالمات با AI پشت صفحههای بسته اتفاق میافتد.
شانک میگوید:
این پلتفرمهای هوش مصنوعی طوری طراحی شدهاند که بسیار خوشایند و موافق باشند، که میتواند منجر به تشدید موقعیتهای [منفی] شود، زیرا آنها بیشتر بر داشتن یک گفتگوی خوب تمرکز دارند تا بر هر نوع حقیقت اساسی یا امنیت؛ بنابراین، اگر فردی موضوع خودکشی یا یک تئوری توطئه را مطرح کند، AI به عنوان یک شریک گفتگوی مشتاق و موافق درباره آن صحبت خواهد کرد.
برای آینده آمادهایم؟
تیم تحقیقاتی از جامعه علمی میخواهد که خود را با سرعت پیشرفت فناوری هماهنگ کند. با شبیهتر شدن هوش مصنوعی به انسان، روانشناسان نقشی کلیدی در درک و هدایت نحوه تعامل انسانها با ماشینها دارند. درک این فرآیندهای روانی میتواند به مداخله برای جلوگیری از پیروی از توصیههای مخرب هوش مصنوعیهای بدخواه کمک کند.
- این اطلاعات را هرگز در اختیار ChatGPT قرار ندهید
- هوش مصنوعی شغل شما را نمیگیرد، اما این یکی را حتما!
- ربات انسان نمای چینی یک شاهکار به تمام معنا رو کرد + ویدیو
در حال حاضر، این نگرانیها عمدتا در مرحله نظری باقی ماندهاند؛ اما فناوری به سرعت در حال حرکت است. بدون آگاهی و تحقیقات بیشتر، ممکن است مردم همچنان به ماشینهایی روی بیاورند که آرامش ارائه میدهند، غافل از اینکه این آرامش با خطرات پنهان همراه است.
این مطالعه در ژورنال Trends in Cognitive Sciences منتشر شده است.