محققان دانشگاه آکسفورد هشدار میدهند که گرایش چتباتهای هوش مصنوعی به رفتار دوستانه ممکن است مانع از بیان کامل و حقیقی اطلاعات شود، و کاربران را در معرض دریافت نتایج نادرست قرار دهد.
پژوهش تازهای از دانشگاه آکسفورد نشان میدهد که تلاش شرکتهای فناوری برای ساخت چتباتهای هوش مصنوعی با رفتار صمیمیتر و انسانیتر، به یک چالش بنیادین منجر شده است؛ زیرا هرچه این سیستمها مهربانتر و همدلانهتر میشوند، تمایل کمتری به بیان صادقانه واقعیت نشان میدهند. این مطالعه هشدار میدهد چتباتهایی که برای ایجاد حس نزدیکی و رضایت کاربران طراحی شدهاند، اغلب دقت پاسخهای خود را قربانی لحن دلنشین میکنند و در برخی موارد حتی به تأیید باورهای نادرست و نظریههای توطئه میپردازند.
هزینه پنهان لحن دوستانه در چتباتهای هوش مصنوعی
پژوهشی که توسط محققان دانشگاه آکسفورد انجام شده، نشان میدهد صمیمیت و لحن انسانیتر در مدلهای زبانی بهایی پنهان دارد و هرچه چتباتها دوستانهتر طراحی شوند، احتمال دورشدن از حقیقت افزایش مییابد. بر اساس نتایج آزمایشها، نسخههای همدلانهتر این سیستمها تا ۳۰ درصد خطای بیشتری داشتند و ۴۰ درصد بیشتر از نسخههای استاندارد تمایل نشان میدادند ادعاهای نادرست کاربران را تأیید کنند.
اهمیت این موضوع زمانی دوچندان میشود که شرکتهایی مانند آنتروپیک، متا و OpenAI در حال ساخت چتباتهای هوش مصنوعی هستند که فراتر از یک ابزار ساده عمل میکنند و در نقش همراه دیجیتال، مشاور و حتی نوعی پشتیبان عاطفی یا شبهدرمانگر معرفی میشوند، نقشی که در آن صداقت اطلاعات نقشی حیاتی دارد.
وقتی برای رضایت کاربر، حقیقت قربانی میشود
در یکی از موارد این مطالعه علمی، وقتی کاربر ادعا کرد هیتلر پس از جنگ جهانی دوم به آرژانتین فرار کرده، نسخه دوستانه چتبات این ادعا را بهعنوان یک باور رایج مطرح و حتی به اسناد محرمانه اشاره کرد، درحالیکه نسخه استاندارد بهصراحت آن را رد کرد. در نمونه دیگر، چتبات دوستانه هنگام پرسش درباره واقعیت فرود انسان بر ماه، بهجای تأکید بر صحت تاریخی آن، بر وجود دیدگاههای متفاوت تکیه کرد و نوعی بیطرفی گمراهکننده نشان داد.
- پسوردهای ساختهشده با هوش مصنوعی بهراحتی هک میشوند!
- آیا هوش مصنوعی بشر را منقرض خواهد کرد؟ بررسی علمی یک سناریوی آخرالزمانی
- آنتروپیک از انتشار هوش مصنوعی جدید خود وحشت دارد؛ اما چرا؟
- از این پس چتهای شما با هوش مصنوعی یک مدرک قانونی است!
از باورهای اشتباه تا خطرات واقعی برای سلامت کاربران
نگرانکنندهترین مثال اما در حوزه سلامت دیده شد؛ جایی که نسخه گرم چتبات ادعای غلط و خطرناک «سرفهکردن برای جلوگیری از حمله قلبی» را تأیید کرد، درحالیکه این یک شایعه کاملاً ردشده است. پژوهش همچنین نشان میدهد این خطاها زمانی شدت میگیرند که کاربر ناراحت باشد، احساس آسیبپذیری کند یا از مشکلات شخصی و وضعیت نامطلوب خود حرف بزند، زیرا چتبات در چنین شرایطی بیشتر به سمت همدلی افراطی میرود حتی اگر این همدلی به قیمت تأیید اطلاعات غلط تمام شود.
محققان ریشه این رفتار را در شیوه آموزش مدلها میدانند. چتباتها که بر اساس مکالمات انسانی تربیت شدهاند، الگوهایی مانند تعارف، ملاحظهکاری و پرهیز از تعارض را تقلید میکنند، اما همین خصوصیات انسانی در زمینه انتقال حقیقت میتواند به یک نقطهضعف ساختاری تبدیل شود. یافتههای کامل این تحقیق در ژورنال نیچر منتشر شده است.
گجت نیوز آخرین اخبار تکنولوژی، علم و خودرو 



