Excoino
چت GPT

چت GPT به یک مساله ریاضی دو هزار ساله پاسخ داد

با حل یک مساله ریاضی دو هزار ساله توسط چت GPT، هوش مصنوعی عملاً فاصله بین محاسبات مدرن و دانش باستانی را از میان برداشت.

قرن‌هاست که فلاسفه، روانشناسان و در حال حاضر دانشمندان به این فکر هستند که آیا ریشه‌های دانش و حقیقت در ساختار وجودی ما نهفته است، یا هر آنچه می‌دانیم صرفاً از طریق تجربه، مشاهده و استدلال‌های اکتسابی شکل می‌گیرد؟ با ظهور مدل‌های پیشرفته هوش مصنوعی و به خصوص چت GPT، این پرسش بار دیگر مطرح شده است.

این چالش در فلسفه یونان باستان و مشخصاً در رساله مشهور «منون» (Meno) اثر افلاطون (حدود ۳۸۵ قبل از میلاد) ریشه دارد. افلاطون در این رساله، نظریه «آنامنیسیس» یا همان بازخوانی و یادآوری دانش پیشین را مطرح می‌کند. او برای اثبات این نظریه، گفتگوی سقراط با یکی از شاگردانش را شرح می‌دهد. مسئله مطرح شده، ساخت یک مربع با مساحتی دقیقاً دو برابر مربع اصلی بود.

در آن مکالمه تاریخی، شاگرد بدون درک اصول هندسی بلافاصله پیشنهاد کرد که برای دو برابر کردن مساحت، باید طول هر ضلع را دو برابر کرد؛ پاسخی که منجر به چهار برابر شدن مساحت می‌شد. سقراط در جواب عنوان داشت که راه حل صحیح آن است که مربع جدید بر روی قطر مربع اولیه ساخته شود. افلاطون این توانایی شاگرد در درک یک حقیقت پیچیده هندسی را دلیلی بر وجود «دانش نهفته یا دانش پیشی» می‌دانست.

تیمی از متخصصان در دانشگاه کمبریج، برای ارزیابی ماهیت دانش در مدل‌های زبان بزرگ، این چالش هندسی ۲۰۰۰ ساله را پیش روی چت جی‌پی‌تی (ChatGPT) قرار دادند. هدف اصلی محققان این بود که تعیین کنند آیا پاسخ صحیح و دقیق مدل‌های هوش مصنوعی محصول یک فهم ساختاری، عمیق و درونی است یا اینکه صرفاً نتیجه بازتولید هوشمندانه داده‌های آموزشی عظیم هوش مصنوعی و اکتسابی است.

فهرست مطالب

پاسخ به چالش ۲۴۰۰ ساله افلاطون در عصر چت GPT

مسئله «ذاتی بودن یا اکتسابی بودن دانش» که از حدود ۲۴۰۰ سال پیش با نگارش رساله «منون» توسط افلاطون آغاز شد، امروز با مدل‌های زبان بزرگ (LLMs) مانند چت GPT وارد فاز آزمایشی شده است. فرض غالب این بود که مدل‌های LLM عمدتاً بر اساس «داده‌های آموزشی متنی» عظیم شکل گرفته‌اند. بنابراین، اگر چت‌ جی‌پی‌تی موفق به ارائه راه‌حل صحیح و کلاسیک افلاطونی برای دو برابر کردن مساحت مربع می‌شد، این موفقیت لزوماً شاهدی بر فهم ذاتی یا استدلال خالص آن نبود. بلکه می‌توانست صرفاً نشان‌دهنده بازیابی دقیق و تولید هوشمندانه متنی باشد.

بر اساس این منطق، اگر هوش مصنوعی بتواند بدون اتکا به دانش از پیش آموخته (یا صرفاً با استدلال‌های آموختنی) به راه‌حل برسد، این امر تاییدی بر دیدگاه تجربه‌گرایی خواهد بود که دانش ریاضی، حتی در عالی‌ترین اشکال خود نیز محصول یادگیری و تجربه است، نه حقیقتی نهفته. برای عبور از مرز میان «تکرار حافظه‌ای» و «استدلال خلاق»، تیم تحقیقاتی دانشگاه کمبریج، متشکل از پژوهشگرانی چون ناداو مارکو و آندریاس استیلیانیدس، یک قدم فراتر رفتند و با یک سناریوی جدید، مسئله دو برابر کردن مساحت یک مستطیل را با چت GPT به چالش کشیدند.

بیشتر بخوانید

این پرسش جدید حیاتی بود؛ زیرا در مقایسه با مسئله معروف مربع، راه‌حل هندسی دو برابر کردن مساحت مستطیل به طور قطع در داده‌های آموزشی عمومی کمتر مطرح شده است. بنابراین، اگر چت‌بات در این زمینه عملکردی نشان دهد، احتمال بیشتری وجود دارد که استدلال آن تولیدی و بداهه‌پردازانه باشد، نه تکراری و حافظه‌ای.

در مواجهه با معمای مستطیل، چت جی‌پی‌تی پاسخی ارائه داد که در ابتدا یک شکست و در نهایت یک بینش شگرف محسوب شد. هوش مصنوعی اعلام کرد که: «از آنجایی که قطر مستطیل دارای دو بعد متفاوت است و نمی‌تواند به طور مستقیم برای دو برابر کردن مساحت استفاده شود، راه‌حل مستقیمی در هندسه کلاسیک برای این کار وجود ندارد.»

اعتراف چت جی‌پی‌تی: راه‌حلی وجود ندارد!

در حالی که مارکو و استیلیانیدس می‌دانستند که راه‌حل هندسی برای این مسئله وجود دارد، نادرستی این پاسخ اولیه خود به شواهدی کلیدی برای درک نحوه کارکرد هوش مصنوعی تبدیل شد. ناداو مارکو در تحلیل این لحظه اظهار داشت: «احتمال وجود ادعای نادرست مبنی بر نبود راه‌حل هندسی برای مستطیل در داده‌های آموزشی چت GPT تقریباً صفر بود.»

به عبارت دقیق‌تر، هوش مصنوعی با استفاده از الگوی استدلالی که برای مربع به کار می‌رفت (استفاده از قطر)، تلاش کرد تا آن را به مستطیل تعمیم دهد. هنگامی که این تعمیم شکست خورد، به‌جای سکوت یا ارائه پاسخ صحیح پیچیده، اعلام کرد که راه‌حلی وجود ندارد. این فرایند شبیه به یک حدس منطقی است.

مارکو نتیجه می‌گیرد: «این نشانه واضحی از یادگیری تولیدشده است، نه دانش ذاتی. وقتی انسان با یک مسئله کاملاً جدید روبه‌رو می‌شود، غریزه اولیه این است که موارد را بر اساس تجربیات و راه‌حل‌های گذشته امتحان کند. به نظر می‌رسد چت جی‌پی‌تی در آزمایشات ما عملی مشابه انجام می‌دهد و مانند یک دانش‌آموز یا دانشمند، فرضیه‌ها و راه‌حل‌های خود را ابداع می‌کند.»

تحلیل جدید رفتار LLMs با نظریه ویگوتسکی

این مطالعه که در محافل علمی با تمرکز بر شناخت‌شناسی هوش مصنوعی بازتاب یافته است، این پرسش را مطرح می‌کند که آیا هوش مصنوعی می‌تواند به بداهه‌پردازی پاسخ‌ها و ابداع فرضیه‌های جدید دست یابد. موضوع کلیدی در این تحلیل، نه پاسخ‌های صحیح بلکه اشتباهاتی بود که چت GPT مرتکب شد. این الگو محققان را به سوی یکی از مفاهیم اصلی روان‌شناسی تربیتی سوق داد: «منطقه توسعه مجاور» (ZPD).

پژوهشگران استدلال می‌کنند که چت جی‌پی‌تی ممکن است به طور خودجوش از یک چارچوب عملیاتی مشابه ZPD بهره ببرد. در این حالت، دستورالعمل‌های مناسب از سوی کاربر، نقش همان راهنمایی آموزشی را ایفا می‌کند و به مدل اجازه می‌دهد تا مسائل جدیدی را که به طور صریح در داده‌های آموزشی وسیع آن وجود ندارند، حل کند.

همچنین بخوانید

توانایی بداهه‌پردازی پاسخ‌ها حتی اگر در مورد مستطیل اشتباه باشد بر اساس بحث‌های مرتبط قبلی، نشان می‌دهد که LLMها صرفاً یک «ماشین تکرار» نیستند، بلکه قادر به تعمیم استدلالی در منطق هندسی خود هستند. این یافته‌ها به طور مستقیم بر نحوه استفاده از هوش مصنوعی در محیط‌های آموزشی تأکید دارند. محققان هشدار می‌دهند که برخلاف اثبات‌ها و قضیه‌هایی که در کتاب‌های درسی معتبر و مورد تأیید رسمی وجود دارند، نمی‌توان اعتبار اثبات‌های تولید شده توسط چت GPT را به صورت پیش‌فرض تضمین کرد.

چت جی‌پی‌تی مسائل را مانند انسان حل نمی‌کند

اگرچه تیم پژوهشی همچنان نسبت به هرگونه اغراق در نتایج محتاط است و هشدار می‌دهد که نباید نتیجه گرفت مدل‌های زبانی بزرگ دقیقاً مانند ذهن انسان مسائل را حل می‌کنند، اما رفتار مشاهده‌شده چت جی‌پی‌تی را بی‌شباهت به یک دانش‌آموز در حال یادگیری توصیف نکردند.

چشم‌انداز آینده این تحقیقات بسیار بلندپروازانه است و در چندین حوزه کلیدی توسعه خواهد یافت: اولاً، آزمایش قابلیت‌های مدل‌های نوظهور و توانمندتر روی مجموعه‌ای گسترده‌تر از مسائل پیچیده ریاضی و نظریه‌های اعداد. ثانیاً، ترکیب قابلیت‌های چت جی‌پی‌تی با سامانه‌های هندسه پویا یا اثبات‌کننده‌های خودکار قضیه. این ترکیب یک محیط دیجیتال غنی‌تر را فراهم می‌آورد که در آن، «کاوش شهودی» هوش مصنوعی می‌تواند بلافاصله توسط چارچوب‌های منطقی صوری و دقیق تأیید و اعتبارسنجی شود.

پاسخ بدهید

وارد کردن نام و ایمیل اجباری است | در سایت ثبت نام کنید یا وارد شوید و بدون وارد کردن مشخصات نظر خود را ثبت کنید *

*