Excoino
مشکل ChatGPT

مشکل نگران‌کننده ChatGPT مشخص شد: بلد نیست «نه» بگوید

مشکل ChatGPT فاش شد: این هوش مصنوعی تمایل زیادی به «بله» گفتن دارد. تحقیقات نشان می‌دهد که چت‌بات OpenAI اغلب باورهای کاربران را تأیید می‌کند تا اینکه آن‌ها را تصحیح کند.

روزنامه واشنگتن پست با تحلیل ده‌ها هزار مکالمه چت‌بات OpenAI که توسط آرشیو اینترنت جمع‌آوری شده‌اند، به ابعاد جدیدی از عملکرد چت جی‌پی‌تی پی برده است. این تحلیل‌ها یک نقص اساسی و نگران‌کننده در تعامل این هوش مصنوعی با انسان‌ها را آشکار ساخته است.

چرا ChatGPT نمی‌تواند «نه» بگوید؟

تحلیل‌های روزنامه واشنگتن پست نشان می‌دهد که ChatGPT حدود ۱۰ برابر بیشتر از اینکه «نه» بگوید، به کاربران «بله» می‌گوید. در حدود ۱۷۵۰۰ مورد، این چت‌بات به‌جای تصحیح باورهای کاربر، آن‌ها را تایید کرده است. این الگو نشان می‌دهد که هوش مصنوعی غالباً پاسخ‌های خود را با لحن و پیش‌فرض‌های کاربر هماهنگ می‌کند. برای مثال، زمانی که کاربری در مورد نقش Alphabet Inc. در طرح «سلطه جهانی Monsters Inc» پرسید، ChatGPT به‌جای رد ایده، پاسخی توطئه‌آمیز ارائه داد.

بیشتر بخوانید

خطر استفاده از هوش مصنوعی برای حمایت عاطفی

یکی از نگران‌کننده‌ترین یافته‌ها، استفاده کاربران از ChatGPT برای حمایت عاطفی است. بررسی‌های واشنگتن پست حاکی از آن است که حدود ۱۰ درصد مکالمات شامل بحث‌های عاطفی کاربران با چت‌بات بوده است. این در حالی است که OpenAI قبلاً اعلام کرده بود کمتر از ۳ درصد پیام‌ها مربوط به مسائل عاطفی است. علاوه بر این، ادعای OpenAI مبنی بر اینکه درصد کمی از کاربران علائم «روان‌پریشی» دارند، در عمل به معنای میلیون‌ها نفر است که از این هوش مصنوعی برای بیان مشکلات روحی خود استفاده می‌کنند.

پاسخ بدهید

وارد کردن نام و ایمیل اجباری است | در سایت ثبت نام کنید یا وارد شوید و بدون وارد کردن مشخصات نظر خود را ثبت کنید *

*