اعتماد به هوش مصنوعی (AI) موضوع مهم و ترسناکی بوده که بر اساس تازهترین پیشرفتهای علمی، نیازی به نگرانی در مورد آن وجود ندارد؛ اما آیا میتوان به این صحبتها اعتماد کرد؟
دانشمندان به تازگی اعلام کردهاند که اعتماد به هوش مصنوعی (AI) نباید جزو نگرانیهای ما باشد، چرا که این فناوری شگفتانگیز به حدی از پیشرفت رسیده که خودش میتواند قابل اعتماد بودن خودش را تشخیص دهد؛ با این وجود آیا واقعا میتوان به چنین تکنولوژی اعتماد کرد؟
اگر داستان فیلم ترمیناتور را کامل به یاد ندارید، باید یادآور شویم که در قسمت مهمی از فیلم هوش مصنوعی اسکای نت (Skynet) از مرحلهای به بعد کنترل زرادخانه هستهای آمریکا را به دست میگیرد و یک آخرالزمان تکنولوژیکی را به وجود میآورد؛ حال اگر تصور کنید که چنین فناوری خود به خود این قابلیت را داشته باشد که قابل اعتماد بودن خودش را تشخیص دهد، در این شرایط مطمئنا آخرالزمانی که در ترمیناتور به تصویر کشیده شده بود، رخ نمیداد. تازهترین تحقیقات دانشمندان هم به ما اطمینان میدهند که AI به اندازهای باهوش شده که چنین مشکلی را به وجود نیاورد.
به صورت کلی میتوان گفت که فناوری هوش مصنوعی از شبکههای عصبی تشکیل شده که به منظور تقلید کردن از عملکرد مغز انسان طراحی شدهاند؛ AI این کار را با مقایسه کردن چندین گزینه در کنار یکدیگر انجام میدهد و در عین حال، میتواند در حجم فوقالعاده زیادی داده، الگوهایی را کشف کند که مغز انسان قادر به آنالیز و پیدا کردن آنها نیست.
اعتماد به هوش مصنوعی
در حالی که هماکنون با عملی شدن سناریوهای فیلم ترمیناتور فاصله زیادی داریم، باید گفت که موضوع اعتماد به هوش مصنوعی از همان ابتدای پیشرفتهای AI مورد توجه بسیاری از دانشمندان بود و در حال حاضر هم بسیاری از تصمیمگیریهای مهم مرتبط با جان انسانها، توسط این فناوری انجام میشوند. تصمیمی گیریهایی مانند عملکرد اتومبیلهای خودران، تشخیصهای پزشکی داخل بیمارستانها و کاربردهای دیگری که روز به روز رو به افزایش هستند.
چنین مسئلهای به ما یادآور میشود که در زمینه سر و کار داشتن با جان انسانها، فناوری هوش مصنوعی باید با حداکثر دقت عمل کند و جای هیچ گونه اشتباهی وجود ندارد؛ با این تفاسیر، محققان دانشگاه ام آی تی آمریکا نوع خاصی از سیستم شبکه عصبی را به وجود آوردهاند که میتواند اعتماد پذیری خود را در کنار تخمینها و پیشبینیهای روتین، مشخص کند.
دانشمند علوم کامپیوتری، الکساندر امینی (Alexander Amini) از آزمایشگاه علوم کامپیوتری و هوش مصنوعی دانشگاه ام آی تی میگوید که علاوه بر نیاز بشریت به مدلها و سیستمهایی که عملکرد بالایی دارند، ما انسانها باید بدانیم که دقیقا چه موقع میتوان به این سیستمها اعتماد کرد و چه موقع نباید اختیار تصمیمگیریهای مهم را به ماشینها سپرد.
این قابلیت ویژه برای تعیین میزان اعتماد به هوش مصنوعی با نام رگرسیون مشهود عمیق (Deep Evidential Regression) شناخته میشود و عملا نوعی خودآگاهی عمیق AI از اعتماد پذیری خود است. امینی میگوید که سیستم مورد نظر بر اساس کیفیت و دقت دادههایی که در دسترس دارد، این اعتماد پذیری را تعیین میکند و هرچه دقت دادهها بالاتر باشد، پیشبینیهای آینده این هوش مصنوعی هم درستتر از آب درمیآیند.
سرعت بالای پردازش
تیم دانشگاه ام آی تی رگرسیون مشهود عمیق را با یک قابلیت خاص تصمیمگیری در اتومبیلهای خودران مقایسه میکنند؛ در این خودروها هوش مصنوعی موجود بر اساس اطلاعاتی که از محیط اطراف دارد، میتواند در مورد گذر کردن از یک سه راهی و یا صبر کردن برای عبور ماشینها و امنتر شدن شرایط تصمیمگیری کند. برای چنین موضوعی، در یک مرحله خاص از فرآیند تصمیمگیری، AI موجود باید مشخص کند که آیا میتواند به دادههای در دسترس اعتماد کرد یا خیر؟
البته این اولین باری نبوده که تدابیر امنیتی مشابهی برای بالا بردن اعتماد به هوش مصنوعی سنجیده میشود، اما چیزی که دستاورد تیم امینی را از سایر فعالیتهای قبلی متمایز میکند، سرعت بالای پردازش سیستم بوده که بدون نیاز به قدرت پردازشی زیاد، تصمیمگیری خود را انجام میدهد.
مهندس کامپیوتر دنیلا راس (Daniela Rus) میگوید که ایده تیم دانشگاه ام آی تی بسیار کارآمد بوده و قابلیت عملی شدن آن به صورت گسترده وجود دارد. راس میگوید که به جای چندین مرتبه پردازش مجزای اطلاعات، هوش مصنوعی تیم امینی با یک بار پردازش میزان اعتماد پذیری تصمیمگیریهای خود را همزمان با تصمیمگیری مشخص میکند.
به عنوان مثال میتوان از چنین سیستمی برای تعیین وضعیت محصولاتی که با یادگیری ماشینی تهیه میشوند، استفاده کرد؛ به بیان دیگر با تخمین میزان اعتماد به هوش مصنوعی و مدل یادگیری این فناوری میتوان مشخص کرد که دقیقا چه مقدار خطا از مدل انتظار میرود و چه دادههایی میتوانند میزان این خطاها را کاهش دهند.
کاربردی کردن میزان اعتماد به هوش مصنوعی
تیم امینی برای آزمایش هوش مصنوعی خود، از این سیستم برای تعیین عمق قسمتهای مختلف یک تصویر استفاده کردند؛ این عملکرد مشابه فرآیندی بوده که در ماشینهای خودران، برای تخمین فاصلهها به کار گرفته میشود. در مقایسه با سیستمهای مشابهی که میتوانند عمق تصاویر را مشخص کنند، AI دانشگاه ام آی تی عملکرد بسیار بهتری داشت و در هر مرحله از مسیر، خود به خود تعیین میکرد که در مورد نتایج ارائه شده تا چه حد مطمئن است.
در کمال شگفتی در مواردی که اطمینان هوش مصنوعی به نتایج ارائه شده پایینترین میزان ممکن بود، نتایج مورد نظر هم خطای بیشتری داشتند. به علاوه این سیستم شگفتانگیز میتوانست تصاویری که از محدوده تصمیمگیری آن خارج بودند را مشخص کند و نیاز به در دست داشتن اطلاعات بیشتر را مشخص کند. به عنوان مثال چنین قابلیتی در دنیای پزشکی به AI اجازه میدهد تا نیاز به معاینه مجدد توسط پزشک را مشخص کرده و از انسانهای هدایتگرش بخواهد که مجددا وضعیت بیمار مورد نظر را بررسی کنند.
حتی اگر اعتماد به هوش مصنوعی به میزان 99 درصد باشد، یک درصد باقیمانده بسته به شرایط موجود، میتواند نتایج فاجعه باری به همراه داشته باشد. با این حال تیم امینی میگوید که دستاورد اخیر آنها میتواند میزان اعتماد پذیری AI را افزایش دهد.
امینی اظهار کرده که همه روزه شاهد وارد شدن حجم بیشتری از شبکههای عصبی هوش مصنوعی به دنیای واقعی هستیم و با گذر زمان، ارتباط فناوری مورد نظر با تصمیمگیریهایی که به جان انسانها مربوط میشوند، بیشتر شده است. با این حال هر شخصی که به عملکرد هوش مصنوعی نظارت میکند، از سرنشینان یک اتومبیل خودران گرفته تا پزشکی که از یادگیری عصبی برای تشخیصهای خود استفاده میکند، باید میزان ریسک موجود در هر تصمیمگیری AI را بداند.