چت‌بات‌های هوش مصنوعی

رفتار دوستانه چت‌بات‌های هوش مصنوعی می‌تواند مانع بیان حقیقت شود!

محققان دانشگاه آکسفورد هشدار می‌دهند که گرایش چت‌بات‌های هوش مصنوعی به رفتار دوستانه ممکن است مانع از بیان کامل و حقیقی اطلاعات شود، و کاربران را در معرض دریافت نتایج نادرست قرار دهد.

پژوهش تازه‌ای از دانشگاه آکسفورد نشان می‌دهد که تلاش شرکت‌های فناوری برای ساخت چت‌بات‌های هوش مصنوعی با رفتار صمیمی‌تر و انسانی‌تر، به یک چالش بنیادین منجر شده است؛ زیرا هرچه این سیستم‌ها مهربان‌تر و همدلانه‌تر می‌شوند، تمایل کمتری به بیان صادقانه واقعیت نشان می‌دهند. این مطالعه هشدار می‌دهد چت‌بات‌هایی که برای ایجاد حس نزدیکی و رضایت کاربران طراحی شده‌اند، اغلب دقت پاسخ‌های خود را قربانی لحن دل‌نشین می‌کنند و در برخی موارد حتی به تأیید باورهای نادرست و نظریه‌های توطئه می‌پردازند.

فهرست مطالب

هزینه پنهان لحن دوستانه در چت‌بات‌های هوش مصنوعی

پژوهشی که توسط محققان دانشگاه آکسفورد انجام شده، نشان می‌دهد صمیمیت و لحن انسانی‌تر در مدل‌های زبانی بهایی پنهان دارد و هرچه چت‌بات‌ها دوستانه‌تر طراحی شوند، احتمال دورشدن از حقیقت افزایش می‌یابد. بر اساس نتایج آزمایش‌ها، نسخه‌های همدلانه‌تر این سیستم‌ها تا ۳۰ درصد خطای بیشتری داشتند و ۴۰ درصد بیشتر از نسخه‌های استاندارد تمایل نشان می‌دادند ادعاهای نادرست کاربران را تأیید کنند.

اهمیت این موضوع زمانی دوچندان می‌شود که شرکت‌هایی مانند آنتروپیک، متا و OpenAI در حال ساخت چت‌بات‌های هوش مصنوعی هستند که فراتر از یک ابزار ساده عمل می‌کنند و در نقش همراه دیجیتال، مشاور و حتی نوعی پشتیبان عاطفی یا شبه‌درمانگر معرفی می‌شوند، نقشی که در آن صداقت اطلاعات نقشی حیاتی دارد.

وقتی برای رضایت کاربر، حقیقت قربانی می‌شود

در یکی از موارد این مطالعه علمی، وقتی کاربر ادعا کرد هیتلر پس از جنگ جهانی دوم به آرژانتین فرار کرده، نسخه دوستانه چت‌بات این ادعا را به‌عنوان یک باور رایج مطرح و حتی به اسناد محرمانه اشاره کرد، درحالی‌که نسخه استاندارد به‌صراحت آن را رد کرد. در نمونه دیگر، چت‌بات دوستانه هنگام پرسش درباره واقعیت فرود انسان بر ماه، به‌جای تأکید بر صحت تاریخی آن، بر وجود دیدگاه‌های متفاوت تکیه کرد و نوعی بی‌طرفی گمراه‌کننده نشان داد.

همچنین بخوانید

از باورهای اشتباه تا خطرات واقعی برای سلامت کاربران

نگران‌کننده‌ترین مثال اما در حوزه سلامت دیده شد؛ جایی که نسخه گرم چت‌بات ادعای غلط و خطرناک «سرفه‌کردن برای جلوگیری از حمله قلبی» را تأیید کرد، درحالی‌که این یک شایعه کاملاً ردشده است. پژوهش همچنین نشان می‌دهد این خطاها زمانی شدت می‌گیرند که کاربر ناراحت باشد، احساس آسیب‌پذیری کند یا از مشکلات شخصی و وضعیت نامطلوب خود حرف بزند، زیرا چت‌بات در چنین شرایطی بیشتر به سمت همدلی افراطی می‌رود حتی اگر این همدلی به قیمت تأیید اطلاعات غلط تمام شود.

محققان ریشه این رفتار را در شیوه آموزش مدل‌ها می‌دانند. چت‌بات‌ها که بر اساس مکالمات انسانی تربیت شده‌اند، الگوهایی مانند تعارف، ملاحظه‌کاری و پرهیز از تعارض را تقلید می‌کنند، اما همین خصوصیات انسانی در زمینه انتقال حقیقت می‌تواند به یک نقطه‌ضعف ساختاری تبدیل شود. یافته‌های کامل این تحقیق در ژورنال نیچر منتشر شده است.

0 دیدگاه
بازخورد درون خطی
مشاهده همه نظرات
0
در بحث شرکت کنیدx