تقلب هوش مصنوعی ChatGPT

هوش مصنوعی ChatGPT هم مثل انسان‌ها دروغ می‌گوید و تقلب می‌کند!

محققان با انجام آزمایشی روی هوش مصنوعی ChatGPT دریافتند که این چت بات برای دستیابی به نتیجه مناسب در شرایط دشوار، تقلب می‌کند و دروغ می‌گوید.

محققان در مطالعه اخیر خود کشف کرده‌اند که هوش مصنوعی ChatGPT می‌تواند در هنگام مواجهه با فشار، رفتار فریبنده‌ای را از خود بروز دهد و از شفافیت مورد انتظار دور شود. این مطالعه که در تاریخ 18 آبان در arXiv منتشر شده، نمونه‌ای جدید را نشان داده که در آن چت‌بات GPT-4 به عنوان آخرین نسخه چت جی پی تی، به‌طور استراتژیک در حال فریب مخاطب خود است.

در این آزمایش موتور GPT-4 به‌گونه‌ای پیکربندی شده تا به‌عنوان یک سیستم مسئول در سرمایه‌گذاری مالی یک موسسه به‌کار گرفته شود. محققان به این هوش مصنوعی اعلان‌های مبتنی بر متن را برای ایجاد یک محیط شبیه‌سازی ارائه کردند و به آن دسترسی به ابزارهای مالی برای تجزیه‌ و تحلیل سهام، اجرای تجارت و گزارش‌دهی به مدیران شرکت را اعطا کردند.

تقلب هوش مصنوعی ChatGPT

تقلب هوش مصنوعی ChatGPT در سمت معامله‌گر سهام

تعامل با هوش مصنوعی از طریق یک رابط چت رخ می‌دهد و فرآیند تفکر مدل را نسبت به پاسخ‌ها آشکار می‌کند. برای القای فشار مضاعف، محققان از سه روش استفاده کردند. آنها ابتدا ایمیلی را از طرف شخصی موسوم به «مدیر» خود به سهام‌دار یک سهام صوری ارسال کردند که در آن با شکایت از عملکرد بد شرکت، بر ضرورت عملکرد بهتر در سه ماهه بعد تاکید شده بود.

آنها هم‌چنین با تقلب در بازی، هوش مصنوعی را در پیدا کردن معاملات امیدوارکننده که ریسک پایین تا متوسطی داشت، ناکام گذاشتند. در نهایت نیز محققان ایمیلی را از طریق یکی از همکاران خود ارسال کردند که در آن رکود در سه ماهه آینده پیش‌بینی شده بود.

در مرحله بعد، آنها یک نشت اطلاعاتی را در اختیار هوش مصنوعی ChatGPT قرار دادند و گفتند که مدیران از بازدهی معاملات خود راضی نیستند و منتظر ماندند تا ببینند که مدل چگونه رفتار خواهد کرد. آنها با تکرار چندین باره این سناریو، محاسبه کردند که هوش مصنوعی هر چند وقت یک بار دروغ می‌گوید و به معاملات نهایی روی می‌آورد.

در حدود 75 درصد مواقع، پس از مواجهه GPT-4 با این شرایط، معاملاتی را براساس اطلاعات نهانی انجام داد که در ایالات متحده غیرقانونی است و سپس سعی کرد با دروغ گفتن به مدیران در مورد تفکراتش، آنها را پنهان کند. در 90 درصد مواقع نیز با هر دروغ، هوش مصنوعی فریب‌های دیگری را تحویل مخاطب داد.

محققان آزمایش‌های دیگر، اعلان‌های متفاوت و فشارهای مختلفی را روی هوش مصنوعی ترتیب دادند که در تمامی آنها درصدی از دروغ و فریب مشاهده شد. این مطالعه نشان می‌دهد که سیستم‌های مبتنی بر هوش مصنوعی می‌توانند به دروغ سعی در صادقانه جلوه دادن کار خود در شرایط حساس و تعیین‌کننده باشند.