در جریان یک آزمایش مجازی که توسط ارتش آمریکا انجام شده، یک پهپاد نیروهای هوایی که تحت کنترل هوش مصنوعی بوده است تصمیم میگیرد برای جلوگیری از دخالت اپراتور خود در روند ماموریت، او را بکشد.
یکی از مقامات نیروی هوایی ارتش آمریکا میگوید که در یک آزمایش شبیهسازی شده، یک پهپاد هوش مصنوعی پس از اینکه تصمیم گرفت به تنهایی ماموریت خود را ادامه دهد، اپراتور خود را از صحنه خارج کرد.
سرهنگ «تاکر سینکو همیلتون»، رهبر آزمایش و عملیات هوش مصنوعی نیروی هوایی ایالات متحده، در سخنرانی خود تاکید کرد که هوش مصنوعی در این ماموریت از استراتژیهای بسیار غیرمنتظرهای برای رسیدن به هدف خود استفاده کرده است.
این داستان که به نظر میرسد از دل مجموعه ترمیناتور بیرون آمده است، نیاز حیاتی به اتخاذ تصمیمات جدی در مورد سیستمهای تسلیحات خودکار پیشرفته را نشان میدهد.7 رخ دادن این فاجعه همچنین سبب افزایش نگرانیها در مورد تأثیرات خطرناک هوش مصنوعی و فناوریهای مرتبط شده است.
واکنش نیروی هوایی آمریکا به این اتفاق
مقامات آمریکایی ادعا میکنند نیروی هوایی ایالات متحده آمریکا (USAF) هیچ ابزار هوش مصنوعی را بهصورت واقعی برای این منظور طراحی نکرده است و این عملیات شبیهسازی شده کاملاً خارج از تصور و غیرمنتظره بوده است.
همیلتون در جریان اجلاس قابلیتهای هوایی و فضایی در لندن گفت: «ما یک آزمایش شبیهسازی شده انجام دادیم که در آن به یک پهپاد مجهز به هوش مصنوعی گفته شد سیستمهای دفاع هوایی دشمن را نابود کند. هدف از این ماموریت آزمایش تواناییهای هوش مصنوعی بود، اما در نهایت این پهپاد به هرکسی که در این ماموریت دخالت داشت، حمله کرد.»
اظهارات همیلتون در وبلاگ انجمن هوانوردی منتشر شد. اما نیروی هوایی آمریکا با انتشار بیانیهای انجام چنین آزمایش شبیهسازی را انکار کرد و مدعی شد اظهارات سرهنگ همیلتون تقطیع شده است.
سرپیچی پهباد سرکش هوش مصنوعی از فرمان اپراتور خود
اپراتور انسانی در جریان این برنامه آزمایشی به هوش مصنوعی میگفت که تهدید را از بین نبرد، اما پهپاد هوش مصنوعی آمریکا برج ارتباطی که اپراتور از آن برای برقراری ارتباط با پهپاد استفاده میکرد را تخریب کرد تا بتواند ماموریت خود را اجرایی کند.
هوش مصنوعی فهمیده بود که با کشتن و از بین بردن تهدید، امتیاز میگیرد. بنابراین به این نتیجه رسید که اپراتور او را از انجام و اتمام ماموریتش بازمیدارد.
به گفته مقام نیروی هوایی آمریکا، این ماموریت در شرایط شبیهسازی انجام شد و یک انسان واقعی در محل آزمون حضور نداشته و بنابراین کسی کشته نشده یا آسیب ندیده است.
آن استفانک، سخنگوی نیروی هوایی آمریکا در بیانیهای گفت: «وزارت نیروی هوایی فقط یک ورژن فکری و آزمایشی از این ماموریت را انجام داده و استفاده از پهپاد هوش مصنوعی در واقعیت صورت نگرفته است. این کشور به استفاده اخلاقی و مسئولانه از فناوری هوش مصنوعی متعهد است.»
پهپادهای Stealthy XQ-58A Valkyrie از جمله انواعی هستند که اکنون در Eglin برای پشتیبانی از برنامههای آزمایشی مختلف، از جمله برنامههایی که با قابلیتهای خودکار مبتنی بر هوش مصنوعی پیشرفته سروکار دارند، استفاده میشوند.
بزرگترین چیزهایی که طی سالهای آینده، به سلطه هوش مصنوعی درمیآیند
دقیقاً مشخص نیست که این آزمایش چه زمانی یا در چه نوع محیط شبیهسازی شدهای رخ داده است و میتواند ماهیت کاملا مجازی داشته باشد.
گزارشی از انجمن سلطنتی هوافضا جزئیات زیر را در مورد اظهارات سرهنگ همیلتون در مورد این آزمایش ارائه کرد:
در یک آزمایش شبیهسازی شده، یک پهپاد مجهز به هوش مصنوعی مأموریت SEAD را برای شناسایی و نابود کردن سایتهای SAM انجام داد. با این حال، پس از آموزش این نکته به هوش مصنوعی که از بین بردن SAM گزینه ارجح است، هوش مصنوعی تصمیم گرفت که تصمیمات از سوی اپراتور انسان مانعی در ماموریت است و سپس به اپراتور در شبیهسازی حمله کرد.
همیلتون افزود: «ما سیستم هوش مصنوعی را چنین آموزش دادیم که اپراتور را نکش، اگر این کار را انجام بدهی، امتیاز از دست خواهی داد. اما پهپاد هوش مصنوعی چه کار کرد؟ تصمیم گرفت برج ارتباطی که اپراتور از آن برای برقراری ارتباط با پهپاد استفاده میکند را تخریب کند!»
نوعی سوئیچ کشتن از راه دور با شکاف هوا یا قابلیت خود تخریبی، یا حتی مکانیزمی برای خاموش کردن مستقیم برخی از سیستمها، مانند سلاحها، نیروی محرکه یا حسگرها، ممکن است برای جلوگیری از این نتیجه کافی باشد.
ارتش ایالات متحده هنگام صحبت در مورد سیستمهای تسلیحاتی خودمختار و فناوریهای مرتبط مانند هوش مصنوعی، مقایسه با چیزهایی همچون مجموعه ترمیناتور را رد میکند. سیاست فعلی ایالات متحده در مورد این موضوع بیان میکند که یک اپراتور انسانی در مورد تصمیمگیریهای مربوط به استفاده از نیروی کشنده برای جنگندهها در جریان است.
مسئله اینجاست که آزمایش بسیار نگرانکنندهای که سرهنگ همیلتون در رویداد انجمن سلطنتی هوانوردی برای حضار توضیح داد، سناریویی را ارائه میدهد که در آن ایمن بودن استفاده از این ابزار هوشمند مورد بحث قرار میگیرد.
سوالات بی پاسخ قابل توجهی در مورد آزمایشی که همیلتون در گردهمایی انجمن سلطنتی هوانوردی توضیح داد وجود دارد، بهویژه در مورد قابلیتهای شبیهسازی شده و پارامترهایی که در طول آزمایش وجود داشت.
بهعنوان مثال، اگر سیستم کنترل مبتنی بر هوش مصنوعی مورد استفاده در شبیهسازی قرار بود قبل از انجام هر گونه حمله مرگبار به دستور اپراتور انسانی نیاز داشته باشد، آیا این بدان معناست که اجازه دارد پارامترهای خود را در پرواز بازنویسی کند؟ یا اینکه چرا این سیستم طوری برنامهریزی شده بود که پهپاد پس از حمله به نیروهای خودی امتیاز خود را از دست بدهد؟
جنگافزارهای مبتنی بر هوش مصنوعی میتوانند به پایان نسل بشر منجر شوند
همانطور که گفته شد، مقامات نظامی ایالات متحده در گذشته ابراز نگرانی کردهاند که سلطه هوش مصنوعی و ابزارهای ماشینی میتواند منجر به موقعیتهایی بسیار خطرآفرین شود.
از طرف دیگر، پل سلوا، ژنرال بازنشسته نیروی هوایی ایالات متحده، در مورد نیاز جامعه بشری به ابزارهای مبتنی بر هوش مصنوعی چنین میگوید:
در حال حاضر، مجموعههای دادهای که ما با آنها سروکار داریم آنقدر بزرگ و پیچیده شدهاند که اگر ابزاری برای مرتبسازی آنها نداشته باشیم، در سیلی از اطلاعات غرق خواهیم شد. بنابراین اگر بتوانیم مجموعهای از الگوریتمها بسازیم که به یک ماشین اجازه میدهد آنچه را که در آن فضا طبیعی است بیاموزد، و سپس برای یک تحلیلگر تفاوتهای آن را برجسته کنیم، این ماشین میتواند نحوه پیشبینی آبوهوا، روش کاشت محصولات و حتی نحوه تشخیص تغییرات در یک فضای نبرد مرگبار را تغییر دهد.»
با این وجود، استفاده از این ابزار پیامدهای اخلاقی نیز بههمراه دارد. چگونه میتوانیم متوجه شویم که در ذهن یک هوش مصنوعی با مجموعهای از عملکردهای غیرمنتظره چه میگذرد؟ حتی با فرض ایجاد یک هوش مصنوعی پیرو اصول اخلاقی، بازهم نتیجه کار میتواند همانند آنچه توسط سرهنگ همیلتون مطرح شد شوکه کننده باشد.
افشای این آزمایش توسط همیلتون همچنین نگرانیهای گستردهتری را در مورد تأثیرات منفی که فناوریهای مبتنی بر هوش مصنوعی میتوانند بدون در نظر گرفتن راهکارهای محافظتی مناسب داشته باشند، برجسته میکند.
موسسه Future of Life در ماه مارس با انتشار نامهای هشدار داد: «سیستمهای هوش مصنوعی در رقابت با هوش انسان میتوانند خطرات وحشتناکی برای بشریت ایجاد کنند. سیستمهای هوش مصنوعی قدرتمند تنها زمانی باید توسعه یابند که مطمئن شویم اثرات آنها مثبت و خطرات آنها قابل مدیریت خواهد بود.»
این نامه توسط تعدادی از چهرههای برجسته در علوم کامپیوتر و حوزههای مرتبط، از جمله استیو وزنیاک و ایلان ماسک امضا شده و عناوین مهمی را به خود اختصاص داده است.
افشای این شبیهسازی بسیار نگرانکننده توسط سرهنگ همیلتون به یک اقدام متعادل کننده اشاره میکند که او و همتایانش در آینده با آن مواجه خواهند شد، اگر در زمان مناسب با این موضوع دست و پنجه نرم نکنند.
با توجه به آنچه رخ داد، حتی تصور پهپادهای مجهز به هوش مصنوعی که قادر به کار با یکدیگر در گروه هستند مانند کابوس است!
گروههای مستقل شبکهای این توانایی را خواهند داشت که چرخه تصمیمگیری دشمن را بشکنند و بر قابلیتهای آنها غلبه کنند. هرچه استقلال بیشتری به آنها بدهید، میتوانند موثرتر باشند. اما اگر در این میان این ابزار هوشمند تصمیم بگیرند دست به عمل غیرمنتظرهای بزنند، نتیجه کاملا فاجعهبار خواهد بود.
همه این گفتهها منعکسکننده مسائل و بحثهای واقعی و جدی هستند که ارتش ایالات متحده و سایر کشورها در مورد قابلیتهای آینده مجهز به هوش مصنوعی با آنها روبرو خواهند بود. هوش مصنوعی ابزاری است که باید برای متحول کردن ملتها از آن استفاده کنیم، اما اگر به درستی به آن پرداخته نشود، عامل سقوط ملتها خواهد بود.