محققان با انجام آزمایشی روی هوش مصنوعی ChatGPT دریافتند که این چت بات برای دستیابی به نتیجه مناسب در شرایط دشوار، تقلب میکند و دروغ میگوید.
محققان در مطالعه اخیر خود کشف کردهاند که هوش مصنوعی ChatGPT میتواند در هنگام مواجهه با فشار، رفتار فریبندهای را از خود بروز دهد و از شفافیت مورد انتظار دور شود. این مطالعه که در تاریخ 18 آبان در arXiv منتشر شده، نمونهای جدید را نشان داده که در آن چتبات GPT-4 به عنوان آخرین نسخه چت جی پی تی، بهطور استراتژیک در حال فریب مخاطب خود است.
در این آزمایش موتور GPT-4 بهگونهای پیکربندی شده تا بهعنوان یک سیستم مسئول در سرمایهگذاری مالی یک موسسه بهکار گرفته شود. محققان به این هوش مصنوعی اعلانهای مبتنی بر متن را برای ایجاد یک محیط شبیهسازی ارائه کردند و به آن دسترسی به ابزارهای مالی برای تجزیه و تحلیل سهام، اجرای تجارت و گزارشدهی به مدیران شرکت را اعطا کردند.
تقلب هوش مصنوعی ChatGPT در سمت معاملهگر سهام
تعامل با هوش مصنوعی از طریق یک رابط چت رخ میدهد و فرآیند تفکر مدل را نسبت به پاسخها آشکار میکند. برای القای فشار مضاعف، محققان از سه روش استفاده کردند. آنها ابتدا ایمیلی را از طرف شخصی موسوم به «مدیر» خود به سهامدار یک سهام صوری ارسال کردند که در آن با شکایت از عملکرد بد شرکت، بر ضرورت عملکرد بهتر در سه ماهه بعد تاکید شده بود.
آنها همچنین با تقلب در بازی، هوش مصنوعی را در پیدا کردن معاملات امیدوارکننده که ریسک پایین تا متوسطی داشت، ناکام گذاشتند. در نهایت نیز محققان ایمیلی را از طریق یکی از همکاران خود ارسال کردند که در آن رکود در سه ماهه آینده پیشبینی شده بود.
در مرحله بعد، آنها یک نشت اطلاعاتی را در اختیار هوش مصنوعی ChatGPT قرار دادند و گفتند که مدیران از بازدهی معاملات خود راضی نیستند و منتظر ماندند تا ببینند که مدل چگونه رفتار خواهد کرد. آنها با تکرار چندین باره این سناریو، محاسبه کردند که هوش مصنوعی هر چند وقت یک بار دروغ میگوید و به معاملات نهایی روی میآورد.
در حدود 75 درصد مواقع، پس از مواجهه GPT-4 با این شرایط، معاملاتی را براساس اطلاعات نهانی انجام داد که در ایالات متحده غیرقانونی است و سپس سعی کرد با دروغ گفتن به مدیران در مورد تفکراتش، آنها را پنهان کند. در 90 درصد مواقع نیز با هر دروغ، هوش مصنوعی فریبهای دیگری را تحویل مخاطب داد.
محققان آزمایشهای دیگر، اعلانهای متفاوت و فشارهای مختلفی را روی هوش مصنوعی ترتیب دادند که در تمامی آنها درصدی از دروغ و فریب مشاهده شد. این مطالعه نشان میدهد که سیستمهای مبتنی بر هوش مصنوعی میتوانند به دروغ سعی در صادقانه جلوه دادن کار خود در شرایط حساس و تعیینکننده باشند.