هوش مصنوعی دانشگاه MIT می‌تواند میزان اعتماد به خود را تعیین کند

هوش مصنوعی دانشگاه MIT می‌تواند میزان اعتماد به خود را تعیین کند

اعتماد به هوش مصنوعی (AI) موضوع مهم و ترسناکی بوده که بر اساس تازه‌ترین پیشرفت‌های علمی، نیازی به نگرانی در مورد آن وجود ندارد؛ اما آیا می‌توان به این صحبت‌ها اعتماد کرد؟

دانشمندان به تازگی اعلام کرده‌اند که اعتماد به هوش مصنوعی (AI) نباید جزو نگرانی‌های ما باشد، چرا که این فناوری شگفت‌انگیز به حدی از پیشرفت رسیده که خودش می‌تواند قابل اعتماد بودن خودش را تشخیص دهد؛ با این وجود آیا واقعا می‌توان به چنین تکنولوژی اعتماد کرد؟

اگر داستان فیلم ترمیناتور را کامل به یاد ندارید، باید یادآور شویم که در قسمت مهمی از فیلم هوش مصنوعی اسکای نت (Skynet) از مرحله‌ای به بعد کنترل زرادخانه هسته‌ای آمریکا را به دست می‌گیرد و یک آخرالزمان تکنولوژیکی را به وجود می‌آورد؛ حال اگر تصور کنید که چنین فناوری خود به خود این قابلیت را داشته باشد که قابل اعتماد بودن خودش را تشخیص دهد، در این شرایط مطمئنا آخرالزمانی که در ترمیناتور به تصویر کشیده شده بود، رخ نمی‌داد. تازه‌ترین تحقیقات دانشمندان هم به ما اطمینان می‌دهند که AI به اندازه‌ای باهوش شده که چنین مشکلی را به وجود نیاورد.

به صورت کلی می‌توان گفت که فناوری هوش مصنوعی از شبکه‌های عصبی تشکیل شده که به منظور تقلید کردن از عملکرد مغز انسان طراحی شده‌اند؛ AI این کار را با مقایسه کردن چندین گزینه در کنار یکدیگر انجام می‌دهد و در عین حال، می‌تواند در حجم فوق‌العاده زیادی داده، الگوهایی را کشف کند که مغز انسان قادر به آنالیز و پیدا کردن آن‌ها نیست.

اعتماد به هوش مصنوعی

در حالی که هم‌اکنون با عملی شدن سناریوهای فیلم ترمیناتور فاصله زیادی داریم، باید گفت که موضوع اعتماد به هوش مصنوعی از همان ابتدای پیشرفت‌های AI مورد توجه بسیاری از دانشمندان بود و در حال حاضر هم بسیاری از تصمیم‌گیری‌های مهم مرتبط با جان انسان‌ها، توسط این فناوری انجام می‌شوند. تصمیمی گیری‌هایی مانند عملکرد اتومبیل‌های خودران، تشخیص‌های پزشکی داخل بیمارستان‌ها و کاربردهای دیگری که روز به روز رو به افزایش هستند.

هوش مصنوعی دانشگاه MIT می‌تواند میزان اعتماد به خود را تعیین کند

چنین مسئله‌ای به ما یادآور می‌شود که در زمینه سر و کار داشتن با جان انسان‌ها، فناوری هوش مصنوعی باید با حداکثر دقت عمل کند و جای هیچ گونه اشتباهی وجود ندارد؛ با این تفاسیر، محققان دانشگاه ام آی تی آمریکا نوع خاصی از سیستم شبکه عصبی را به وجود آورده‌اند که می‌تواند اعتماد پذیری خود را در کنار تخمین‌ها و پیش‌بینی‌های روتین، مشخص کند.

دانشمند علوم کامپیوتری، الکساندر امینی (Alexander Amini) از آزمایشگاه علوم کامپیوتری و هوش مصنوعی دانشگاه ام آی تی می‌گوید که علاوه بر نیاز بشریت به مدل‌ها و سیستم‌هایی که عملکرد بالایی دارند، ما انسان‌ها باید بدانیم که دقیقا چه موقع می‌توان به این سیستم‌ها اعتماد کرد و چه موقع نباید اختیار تصمیم‌گیری‌های مهم را به ماشین‌ها سپرد.

این قابلیت ویژه برای تعیین میزان اعتماد به هوش مصنوعی با نام رگرسیون مشهود عمیق (Deep Evidential Regression) شناخته می‌شود و عملا نوعی خودآگاهی عمیق AI از اعتماد پذیری خود است. امینی می‌گوید که سیستم مورد نظر بر اساس کیفیت و دقت داده‌هایی که در دسترس دارد، این اعتماد پذیری را تعیین می‌کند و هرچه دقت داده‌ها بالاتر باشد، پیش‌بینی‌های آینده این هوش مصنوعی هم درست‌تر از آب درمی‌آیند.

سرعت بالای پردازش

تیم دانشگاه ام آی تی رگرسیون مشهود عمیق را با یک قابلیت خاص تصمیم‌گیری در اتومبیل‌های خودران مقایسه می‌کنند؛ در این خودروها هوش مصنوعی موجود بر اساس اطلاعاتی که از محیط اطراف دارد، می‌تواند در مورد گذر کردن از یک سه راهی و یا صبر کردن برای عبور ماشین‌ها و امن‌تر شدن شرایط تصمیم‌گیری کند. برای چنین موضوعی، در یک مرحله خاص از فرآیند تصمیم‌گیری، AI موجود باید مشخص کند که آیا می‌تواند به داده‌های در دسترس اعتماد کرد یا خیر؟

البته این اولین باری نبوده که تدابیر امنیتی مشابهی برای بالا بردن اعتماد به هوش مصنوعی سنجیده می‌شود، اما چیزی که دستاورد تیم امینی را از سایر فعالیت‌های قبلی متمایز می‌کند، سرعت بالای پردازش سیستم بوده که بدون نیاز به قدرت پردازشی زیاد، تصمیم‌گیری خود را انجام می‌دهد.

مهندس کامپیوتر دنیلا راس (Daniela Rus) می‌گوید که ایده تیم دانشگاه ام آی تی بسیار کارآمد بوده و قابلیت عملی شدن آن به صورت گسترده وجود دارد. راس می‌گوید که به جای چندین مرتبه پردازش مجزای اطلاعات، هوش مصنوعی تیم امینی با یک بار پردازش میزان اعتماد پذیری تصمیم‌گیری‌های خود را هم‌زمان با تصمیم‌گیری مشخص می‌کند.

هوش مصنوعی دانشگاه MIT می‌تواند میزان اعتماد به خود را تعیین کند

به عنوان مثال می‌توان از چنین سیستمی برای تعیین وضعیت محصولاتی که با یادگیری ماشینی تهیه می‌شوند، استفاده کرد؛ به بیان دیگر با تخمین میزان اعتماد به هوش مصنوعی و مدل یادگیری این فناوری می‌توان مشخص کرد که دقیقا چه مقدار خطا از مدل انتظار می‌رود و چه داده‌هایی می‌توانند میزان این خطاها را کاهش دهند.

کاربردی کردن میزان اعتماد به هوش مصنوعی

تیم امینی برای آزمایش هوش مصنوعی خود، از این سیستم برای تعیین عمق قسمت‌های مختلف یک تصویر استفاده کردند؛ این عملکرد مشابه فرآیندی بوده که در ماشین‌های خودران، برای تخمین فاصله‌ها به کار گرفته می‌شود. در مقایسه با سیستم‌های مشابهی که می‌توانند عمق تصاویر را مشخص کنند، AI دانشگاه ام آی تی عملکرد بسیار بهتری داشت و در هر مرحله از مسیر، خود به خود تعیین می‌کرد که در مورد نتایج ارائه شده تا چه حد مطمئن است.

در کمال شگفتی در مواردی که اطمینان هوش مصنوعی به نتایج ارائه شده پایین‌ترین میزان ممکن بود، نتایج مورد نظر هم خطای بیشتری داشتند. به علاوه این سیستم شگفت‌انگیز می‌توانست تصاویری که از محدوده تصمیم‌گیری آن خارج بودند را مشخص کند و نیاز به در دست داشتن اطلاعات بیشتر را مشخص کند. به عنوان مثال چنین قابلیتی در دنیای پزشکی به AI اجازه می‌دهد تا نیاز به معاینه مجدد توسط پزشک را مشخص کرده و از انسان‌های هدایت‌گرش بخواهد که مجددا وضعیت بیمار مورد نظر را بررسی کنند.

حتی اگر اعتماد به هوش مصنوعی به میزان ۹۹ درصد باشد، یک درصد باقی‌مانده بسته به شرایط موجود، می‌تواند نتایج فاجعه باری به همراه داشته باشد. با این حال تیم امینی می‌گوید که دستاورد اخیر آن‌ها می‌تواند میزان اعتماد پذیری AI را افزایش دهد.

امینی اظهار کرده که همه روزه شاهد وارد شدن حجم بیشتری از شبکه‌های عصبی هوش مصنوعی به دنیای واقعی هستیم و با گذر زمان، ارتباط فناوری مورد نظر با تصمیم‌گیری‌هایی که به جان انسان‌ها مربوط می‌شوند، بیشتر شده است. با این حال هر شخصی که به عملکرد هوش مصنوعی نظارت می‌کند، از سرنشینان یک اتومبیل خودران گرفته تا پزشکی که از یادگیری عصبی برای تشخیص‌های خود استفاده می‌کند، باید میزان ریسک موجود در هر تصمیم‌گیری AI را بداند.

پاسخ بدهید

وارد کردن نام و ایمیل اجباری است | در سایت ثبت نام کنید یا وارد شوید و بدون وارد کردن مشخصات نظر خود را ثبت کنید *

*