Excoino
توهم چت‌بات‌های هوش مصنوعی

چت‌بات‌های هوش مصنوعی از خودشان حرف درمیاورند و این قابل حل نیست!

محققان OpenAI بالاخره راز توهم و پاسخ‌های اشتباه در چت‌بات‌های هوش مصنوعی را فاش کردند؛ مشکلی که راه‌حل آن یک تغییر بنیادین در آموزش آنها است.

محققان شرکت OpenAI به تازگی اعلام کرده‌اند که ریشه یکی از بزرگترین و نگران‌کننده‌ترین مشکلات مدل‌های زبان بزرگ یعنی توهم یا ارائه اطلاعات نادرست را پیدا کرده‌اند. این معضل که گریبان‌گیر تمام چت‌بات‌های هوش مصنوعی از جمله ChatGPT و رقیب آن Claude شده است باعث می‌شود سیستم اطلاعات غلط را به عنوان یک حقیقت انکارناپذیر به کاربر ارائه دهد و اعتماد به این فناوری را خدشه‌دار کند.

بر اساس یافته‌های این پژوهشگران مشکل اصلی در نحوه آموزش این مدل‌ها نهفته است. سیستم‌های ارزیابی فعلی به گونه‌ای طراحی شده‌اند که حدس زدن و ارائه پاسخ اشتباه را به نادانستن و اعتراف به عدم قطعیت ترجیح می‌دهند. به عبارت ساده‌تر این مدل‌ها یاد گرفته‌اند که همیشه مانند یک دانش‌آموز در جلسه امتحان رفتار کنند و برای گرفتن نمره بهتر حتی در صورت نداشتن اطلاعات کافی هم یک پاسخ حدسی ارائه دهند.

چرا چت‌بات‌های هوش مصنوعی به دروغ گفتن تشویق می‌شوند؟

این مدل‌ها در دنیای واقعی که پر از عدم قطعیت است آموزش ندیده‌اند و نمی‌توانند بین درستی و نادرستی تمایز قائل شوند. به گفته محققان انسان‌ها در خارج از مدرسه و با تجربه کردن می‌آموزند که ابراز عدم اطمینان یک ارزش است اما مدل‌های زبانی صرفا برای موفقیت در آزمون‌هایی بهینه شده‌اند که سکوت را جریمه می‌کند.

بیشتر بخوانید

راه‌حل این مشکل نیز تغییر بنیادین همین سیستم‌های ارزیابی است. تا زمانی که معیارهای امتیازدهی به حدس‌های شانسی پاداش بدهند چت‌بات‌های هوش مصنوعی به تولید اطلاعات نادرست و غیرقابل اعتماد ادامه خواهند داد. بنابراین مشکل توهم یک باگ نرم‌افزاری ساده نیست بلکه یک نقص عمیق در فلسفه آموزش این سیستم‌ها است که رفع آن به سادگی امکان‌پذیر نخواهد بود.

پاسخ بدهید

وارد کردن نام و ایمیل اجباری است | در سایت ثبت نام کنید یا وارد شوید و بدون وارد کردن مشخصات نظر خود را ثبت کنید *

*