با حل یک مساله ریاضی دو هزار ساله توسط چت GPT، هوش مصنوعی عملاً فاصله بین محاسبات مدرن و دانش باستانی را از میان برداشت.
قرنهاست که فلاسفه، روانشناسان و در حال حاضر دانشمندان به این فکر هستند که آیا ریشههای دانش و حقیقت در ساختار وجودی ما نهفته است، یا هر آنچه میدانیم صرفاً از طریق تجربه، مشاهده و استدلالهای اکتسابی شکل میگیرد؟ با ظهور مدلهای پیشرفته هوش مصنوعی و به خصوص چت GPT، این پرسش بار دیگر مطرح شده است.
این چالش در فلسفه یونان باستان و مشخصاً در رساله مشهور «منون» (Meno) اثر افلاطون (حدود ۳۸۵ قبل از میلاد) ریشه دارد. افلاطون در این رساله، نظریه «آنامنیسیس» یا همان بازخوانی و یادآوری دانش پیشین را مطرح میکند. او برای اثبات این نظریه، گفتگوی سقراط با یکی از شاگردانش را شرح میدهد. مسئله مطرح شده، ساخت یک مربع با مساحتی دقیقاً دو برابر مربع اصلی بود.
در آن مکالمه تاریخی، شاگرد بدون درک اصول هندسی بلافاصله پیشنهاد کرد که برای دو برابر کردن مساحت، باید طول هر ضلع را دو برابر کرد؛ پاسخی که منجر به چهار برابر شدن مساحت میشد. سقراط در جواب عنوان داشت که راه حل صحیح آن است که مربع جدید بر روی قطر مربع اولیه ساخته شود. افلاطون این توانایی شاگرد در درک یک حقیقت پیچیده هندسی را دلیلی بر وجود «دانش نهفته یا دانش پیشی» میدانست.
تیمی از متخصصان در دانشگاه کمبریج، برای ارزیابی ماهیت دانش در مدلهای زبان بزرگ، این چالش هندسی ۲۰۰۰ ساله را پیش روی چت جیپیتی (ChatGPT) قرار دادند. هدف اصلی محققان این بود که تعیین کنند آیا پاسخ صحیح و دقیق مدلهای هوش مصنوعی محصول یک فهم ساختاری، عمیق و درونی است یا اینکه صرفاً نتیجه بازتولید هوشمندانه دادههای آموزشی عظیم هوش مصنوعی و اکتسابی است.
پاسخ به چالش ۲۴۰۰ ساله افلاطون در عصر چت GPT
مسئله «ذاتی بودن یا اکتسابی بودن دانش» که از حدود ۲۴۰۰ سال پیش با نگارش رساله «منون» توسط افلاطون آغاز شد، امروز با مدلهای زبان بزرگ (LLMs) مانند چت GPT وارد فاز آزمایشی شده است. فرض غالب این بود که مدلهای LLM عمدتاً بر اساس «دادههای آموزشی متنی» عظیم شکل گرفتهاند. بنابراین، اگر چت جیپیتی موفق به ارائه راهحل صحیح و کلاسیک افلاطونی برای دو برابر کردن مساحت مربع میشد، این موفقیت لزوماً شاهدی بر فهم ذاتی یا استدلال خالص آن نبود. بلکه میتوانست صرفاً نشاندهنده بازیابی دقیق و تولید هوشمندانه متنی باشد.
بر اساس این منطق، اگر هوش مصنوعی بتواند بدون اتکا به دانش از پیش آموخته (یا صرفاً با استدلالهای آموختنی) به راهحل برسد، این امر تاییدی بر دیدگاه تجربهگرایی خواهد بود که دانش ریاضی، حتی در عالیترین اشکال خود نیز محصول یادگیری و تجربه است، نه حقیقتی نهفته. برای عبور از مرز میان «تکرار حافظهای» و «استدلال خلاق»، تیم تحقیقاتی دانشگاه کمبریج، متشکل از پژوهشگرانی چون ناداو مارکو و آندریاس استیلیانیدس، یک قدم فراتر رفتند و با یک سناریوی جدید، مسئله دو برابر کردن مساحت یک مستطیل را با چت GPT به چالش کشیدند.
- چتجیپیتی در خلاصهنویسی مقالات علمی، دقت را قربانی سادگی میکند
- هوش مصنوعی ChatGPT با قابلیت جدید Pulse، سر صحبت را با شما باز میکند
- پیشبینی سم آلتمن از تأثیر گسترده هوش مصنوعی بر مشاغل: کدام حوزهها در معرض خطرند و چرا؟
این پرسش جدید حیاتی بود؛ زیرا در مقایسه با مسئله معروف مربع، راهحل هندسی دو برابر کردن مساحت مستطیل به طور قطع در دادههای آموزشی عمومی کمتر مطرح شده است. بنابراین، اگر چتبات در این زمینه عملکردی نشان دهد، احتمال بیشتری وجود دارد که استدلال آن تولیدی و بداههپردازانه باشد، نه تکراری و حافظهای.
در مواجهه با معمای مستطیل، چت جیپیتی پاسخی ارائه داد که در ابتدا یک شکست و در نهایت یک بینش شگرف محسوب شد. هوش مصنوعی اعلام کرد که: «از آنجایی که قطر مستطیل دارای دو بعد متفاوت است و نمیتواند به طور مستقیم برای دو برابر کردن مساحت استفاده شود، راهحل مستقیمی در هندسه کلاسیک برای این کار وجود ندارد.»
اعتراف چت جیپیتی: راهحلی وجود ندارد!
در حالی که مارکو و استیلیانیدس میدانستند که راهحل هندسی برای این مسئله وجود دارد، نادرستی این پاسخ اولیه خود به شواهدی کلیدی برای درک نحوه کارکرد هوش مصنوعی تبدیل شد. ناداو مارکو در تحلیل این لحظه اظهار داشت: «احتمال وجود ادعای نادرست مبنی بر نبود راهحل هندسی برای مستطیل در دادههای آموزشی چت GPT تقریباً صفر بود.»
به عبارت دقیقتر، هوش مصنوعی با استفاده از الگوی استدلالی که برای مربع به کار میرفت (استفاده از قطر)، تلاش کرد تا آن را به مستطیل تعمیم دهد. هنگامی که این تعمیم شکست خورد، بهجای سکوت یا ارائه پاسخ صحیح پیچیده، اعلام کرد که راهحلی وجود ندارد. این فرایند شبیه به یک حدس منطقی است.
مارکو نتیجه میگیرد: «این نشانه واضحی از یادگیری تولیدشده است، نه دانش ذاتی. وقتی انسان با یک مسئله کاملاً جدید روبهرو میشود، غریزه اولیه این است که موارد را بر اساس تجربیات و راهحلهای گذشته امتحان کند. به نظر میرسد چت جیپیتی در آزمایشات ما عملی مشابه انجام میدهد و مانند یک دانشآموز یا دانشمند، فرضیهها و راهحلهای خود را ابداع میکند.»
تحلیل جدید رفتار LLMs با نظریه ویگوتسکی
این مطالعه که در محافل علمی با تمرکز بر شناختشناسی هوش مصنوعی بازتاب یافته است، این پرسش را مطرح میکند که آیا هوش مصنوعی میتواند به بداههپردازی پاسخها و ابداع فرضیههای جدید دست یابد. موضوع کلیدی در این تحلیل، نه پاسخهای صحیح بلکه اشتباهاتی بود که چت GPT مرتکب شد. این الگو محققان را به سوی یکی از مفاهیم اصلی روانشناسی تربیتی سوق داد: «منطقه توسعه مجاور» (ZPD).
پژوهشگران استدلال میکنند که چت جیپیتی ممکن است به طور خودجوش از یک چارچوب عملیاتی مشابه ZPD بهره ببرد. در این حالت، دستورالعملهای مناسب از سوی کاربر، نقش همان راهنمایی آموزشی را ایفا میکند و به مدل اجازه میدهد تا مسائل جدیدی را که به طور صریح در دادههای آموزشی وسیع آن وجود ندارند، حل کند.
- هوش مصنوعی موفق به ساخت ویروس شد؛ نگران باشیم یا امیدوار؟
- هکرهای کره شمالی با استفاده از ChatGPT به جنگ ارتش کره جنوبی رفتند!
- کاربران از ChatGPT برای چه کاری استفاده میکنند؟ OpenAI با بررسی 1.5 میلیون چت پاسخ را یافت
توانایی بداههپردازی پاسخها حتی اگر در مورد مستطیل اشتباه باشد بر اساس بحثهای مرتبط قبلی، نشان میدهد که LLMها صرفاً یک «ماشین تکرار» نیستند، بلکه قادر به تعمیم استدلالی در منطق هندسی خود هستند. این یافتهها به طور مستقیم بر نحوه استفاده از هوش مصنوعی در محیطهای آموزشی تأکید دارند. محققان هشدار میدهند که برخلاف اثباتها و قضیههایی که در کتابهای درسی معتبر و مورد تأیید رسمی وجود دارند، نمیتوان اعتبار اثباتهای تولید شده توسط چت GPT را به صورت پیشفرض تضمین کرد.
چت جیپیتی مسائل را مانند انسان حل نمیکند
اگرچه تیم پژوهشی همچنان نسبت به هرگونه اغراق در نتایج محتاط است و هشدار میدهد که نباید نتیجه گرفت مدلهای زبانی بزرگ دقیقاً مانند ذهن انسان مسائل را حل میکنند، اما رفتار مشاهدهشده چت جیپیتی را بیشباهت به یک دانشآموز در حال یادگیری توصیف نکردند.
چشمانداز آینده این تحقیقات بسیار بلندپروازانه است و در چندین حوزه کلیدی توسعه خواهد یافت: اولاً، آزمایش قابلیتهای مدلهای نوظهور و توانمندتر روی مجموعهای گستردهتر از مسائل پیچیده ریاضی و نظریههای اعداد. ثانیاً، ترکیب قابلیتهای چت جیپیتی با سامانههای هندسه پویا یا اثباتکنندههای خودکار قضیه. این ترکیب یک محیط دیجیتال غنیتر را فراهم میآورد که در آن، «کاوش شهودی» هوش مصنوعی میتواند بلافاصله توسط چارچوبهای منطقی صوری و دقیق تأیید و اعتبارسنجی شود.
گجت نیوز آخرین اخبار تکنولوژی، علم و خودرو 










