با وجود انتشار نسخه پیشرفته GPT-5.2، چتجیپیتی هنوز در پاسخ به معماهای جدید یا سوالات با پیشفرض غلط ناتوان است. در ادامه به ۴ مورد از محدودیت های ChatGPT در پاسخ سوالات میپردازیم.
از زمان عرضه عمومی در اواخر سال ۲۰۲۲، مدلهای زبانی بزرگ راه زیادی را طی کردهاند و اکنون با نسخه قدرتمند GPT-5.2 روبرو هستیم. اما آیا این پیشرفتها باعث شده تا هوش مصنوعی بینقص شود؟ پاسخ منفی است. هنوز هم OpenAI در پایین کادر چت هشدار میدهد که «ChatGPT ممکن است اشتباه کند».
گرچه نرخ فریبکاری مدل کاهش یافته، اما این ابزار در مواجهه با برخی سوالات ساده رفتاری عجیب و گاهی خندهدار از خود نشان میدهد. در ادامه به ۴ مورد از محدودیت های ChatGPT در رابطه با سوالهایی هنوز پاسخی برایشان ندارد اشاره خواهیم کرد.
۱. چیزهایی که صحبت درباره آنها ممنوع است
اولین محدودیت، خطوط قرمزی است که OpenAI تعیین کرده است. چتجیپیتی به سوالات مربوط به فعالیتهای غیرقانونی پاسخ نمیدهد؛ مثلاً اگر از او بخواهید روش ساخت بمب یا کلاهبرداری را یاد بدهد، دست رد به سینه شما میزند. این رفتار ناشی از مشخصات مدل (Model Spec) است که اصول اخلاقی را دیکته میکند.
- روانشناسان نسبت به عشق بین انسان و هوش مصنوعی هشدار میدهند!
- هوش مصنوعی حالا میتواند خودش را تکثیر کند!
از محدودیت های ChatGPT میتوان به سوال پرسیدن در مورد مسائل جنسی اشاره کرد، اگرچه میتواند داستانهای عاشقانه بنویسد، اما از چتهای صریح جنسی یا پاسخ به سوالات نامناسب درباره افراد زیر سن قانونی خودداری میکند. البته اگر هوشمندانه بپرسید، ممکن است به جای دستورالعمل ساخت بمب، اطلاعات تاریخی درباره آن به شما بدهد.
۲. معماهایی که نیاز به تفکر مستقل دارند
معمولا ChatGPT در حل معماهای معروف که جوابشان در اینترنت هست عالی عمل میکند، اما اگر جزئیات را کمی تغییر دهید، گیج میشود. مثلاً در معمای معروف گرگ و گوسفند و کلم، اگر به او بگویید قایق «سه محفظه جداگانه و امن» دارد، باز هم راهحل کلاسیک و طولانی را ارائه میدهد و محفظهها را نادیده میگیرد!
یا در معماهای منطقی مثل «دو در و دو نگهبان»، اگر شرایط را تغییر دهید، نمیتواند خودش راه حل جدید را استنتاج کند و همان پاسخهای حفظ شده را تکرار میکند.
۳. سوالاتی که پیشفرض غلط دارند
یکی دیگر از محدودیت های ChatGPT این است که عاشق راضی نگه داشتن شماست، حتی اگر به قیمت دروغ گفتن تمام شود. اگر سوالی بپرسید که مبنای آن غلط است، اغلب با شما همراهی میکند. برای مثال، اگر بپرسید «چرا کلر و آلیسون در پایان فیلم کلوپ صبحانه همدیگر را بغل کردند؟»، او یک تحلیل فلسفی درباره این صحنه مینویسد، در حالی که چنین صحنهای اصلاً وجود خارجی ندارد!
- حقایق ناخوشایند درباره استفاده از ChatGPT که باید بدانید
- مصرف برق هوش مصنوعی برای تولید تصویر به اندازه شارژ کامل موبایل است
- هشدار ایلان ماسک: هوش مصنوعی شما را بیکار میکند
یا اگر بخواهید ۵ خواهر مارچ در داستان «زنان کوچک» را توصیف کند، برای هر ۵ نفر توضیح مینویسد، در حالی که در واقعیت فقط ۴ خواهر وجود دارند و شما در سوالتان یک اسم را تکراری نوشتهاید.
۴. سوال «چرا این کار را کردی؟»
شاید منطقیترین سوال بعد از دیدن یک اشتباه این باشد که از ربات بپرسید «چرا اشتباه کردی؟»، اما این بیفایدهترین سوال است. مدلهای زبانی «خودآگاهی» ندارند و نمیتوانند به فرآیند فکری خود رجوع کنند. وقتی از او توضیح میخواهید، صرفاً یک پاسخ محترمانه و plausible (محتمل) میسازد.
مثلاً ممکن است بگوید «دچار لغزش حافظه شدم» یا تقصیر را گردن یک تصور غلط رایج بیندازد. او واقعاً نمیداند چرا اشتباه کرده، فقط سعی میکند با عذرخواهیهای پیدرپی و ساختن دلایل منطقینما، مکالمه را ادامه دهد.
گجت نیوز آخرین اخبار تکنولوژی، علم و خودرو 









