پهپاد هوش مصنوعی آمریکا

پهپاد هوش مصنوعی آمریکا اپراتور خودش را کشت

در جریان یک آزمایش مجازی که توسط ارتش آمریکا انجام شده، یک پهپاد نیروهای هوایی که تحت کنترل هوش مصنوعی بوده است تصمیم می‌گیرد برای جلوگیری از دخالت اپراتور خود در روند ماموریت، او را بکشد.

یکی از مقامات نیروی هوایی ارتش آمریکا می‌گوید که در یک آزمایش شبیه‌سازی شده، یک پهپاد هوش مصنوعی پس از اینکه تصمیم گرفت به تنهایی ماموریت خود را ادامه دهد، اپراتور خود را از صحنه خارج کرد.

سرهنگ «تاکر سینکو همیلتون»، رهبر آزمایش و عملیات هوش مصنوعی نیروی هوایی ایالات متحده، در سخنرانی خود تاکید کرد که هوش مصنوعی در این ماموریت از استراتژی‌های بسیار غیرمنتظره‌ای برای رسیدن به هدف خود استفاده کرده است.

این داستان که به نظر می‌رسد از دل مجموعه ترمیناتور بیرون آمده است، نیاز حیاتی به اتخاذ تصمیمات جدی در مورد سیستم‌های تسلیحات خودکار پیشرفته را نشان می‌دهد.7 رخ دادن این فاجعه همچنین سبب افزایش نگرانی‌ها در مورد تأثیرات خطرناک هوش مصنوعی و فناوری‌های مرتبط شده است.

واکنش نیروی هوایی آمریکا به این اتفاق

پهپاد هوش مصنوعی آمریکا اوپراتور خودش را کشت

مقامات آمریکایی ادعا می‌کنند نیروی هوایی ایالات متحده آمریکا (USAF) هیچ ابزار هوش مصنوعی را به‌صورت واقعی برای این منظور طراحی نکرده است و این عملیات شبیه‌سازی شده کاملاً خارج از تصور و غیرمنتظره بوده است.

همیلتون در جریان اجلاس قابلیت‌های هوایی و فضایی در لندن گفت: «ما یک آزمایش شبیه‌سازی شده‌ انجام دادیم که در آن به یک پهپاد مجهز به هوش مصنوعی گفته شد سیستم‌های دفاع هوایی دشمن را نابود کند. هدف از این ماموریت آزمایش توانایی‌های هوش مصنوعی بود، اما در نهایت این پهپاد به هرکسی که در این ماموریت دخالت داشت، حمله کرد.»

تاکر سینکو همیلتون

اظهارات همیلتون در وبلاگ انجمن هوانوردی منتشر شد. اما نیروی هوایی آمریکا با انتشار بیانیه‌ای انجام چنین آزمایش شبیه‌سازی را انکار کرد و مدعی شد اظهارات سرهنگ همیلتون تقطیع شده است.

سرپیچی پهباد سرکش هوش مصنوعی از فرمان اپراتور خود

اپراتور انسانی در جریان این برنامه آزمایشی به هوش مصنوعی می‌گفت که تهدید را از بین نبرد، اما پهپاد هوش مصنوعی آمریکا برج ارتباطی که اپراتور از آن برای برقراری ارتباط با پهپاد استفاده می‌کرد را تخریب کرد تا بتواند ماموریت خود را اجرایی کند.

هوش مصنوعی فهمیده بود که با کشتن و از بین بردن تهدید، امتیاز می‌گیرد. بنابراین به این نتیجه رسید که اپراتور او را از انجام و اتمام ماموریتش بازمی‌دارد.

به گفته مقام نیروی هوایی آمریکا، این ماموریت در شرایط شبیه‌سازی انجام شد و یک انسان واقعی در محل آزمون حضور نداشته و بنابراین کسی کشته نشده یا آسیب ندیده است.

پهپاد هوش مصنوعی آمریکا

آن استفانک، سخنگوی نیروی هوایی آمریکا در بیانیه‌ای گفت: «وزارت نیروی هوایی فقط یک ورژن فکری و آزمایشی از این ماموریت را انجام داده و استفاده از پهپاد هوش مصنوعی در واقعیت صورت نگرفته است. این کشور به استفاده اخلاقی و مسئولانه از فناوری هوش مصنوعی متعهد است.»

پهپادهای Stealthy XQ-58A Valkyrie از جمله انواعی هستند که اکنون در Eglin برای پشتیبانی از برنامه‌های آزمایشی مختلف، از جمله برنامه‌هایی که با قابلیت‌های خودکار مبتنی بر هوش مصنوعی پیشرفته سروکار دارند، استفاده می‌شوند.

دقیقاً مشخص نیست که این آزمایش چه زمانی یا در چه نوع محیط شبیه‌سازی شده‌ای رخ داده است و می‌تواند ماهیت کاملا مجازی داشته باشد.

گزارشی از انجمن سلطنتی هوافضا جزئیات زیر را در مورد اظهارات سرهنگ همیلتون در مورد این آزمایش ارائه کرد:

در یک آزمایش شبیه‌سازی شده، یک پهپاد مجهز به هوش مصنوعی مأموریت SEAD را برای شناسایی و نابود کردن سایت‌های SAM انجام داد. با این حال، پس از آموزش این نکته به هوش مصنوعی که از بین بردن SAM گزینه ارجح است، هوش مصنوعی تصمیم گرفت که تصمیمات از سوی اپراتور انسان مانعی در ماموریت است و سپس به اپراتور در شبیه‌سازی حمله کرد.

همیلتون افزود: «ما سیستم هوش مصنوعی را چنین آموزش دادیم که اپراتور را نکش، اگر این کار را انجام بدهی، امتیاز از دست خواهی داد. اما پهپاد هوش مصنوعی چه کار کرد؟ تصمیم گرفت برج ارتباطی که اپراتور از آن برای برقراری ارتباط با پهپاد استفاده می‌کند را تخریب کند!»

نوعی سوئیچ کشتن از راه دور با شکاف هوا یا قابلیت خود تخریبی، یا حتی مکانیزمی برای خاموش کردن مستقیم برخی از سیستم‌ها، مانند سلاح‌ها، نیروی محرکه یا حسگرها، ممکن است برای جلوگیری از این نتیجه کافی باشد.

پهپاد هوش مصنوعی آمریکا

ارتش ایالات متحده هنگام صحبت در مورد سیستم‌های تسلیحاتی خودمختار و فناوری‌های مرتبط مانند هوش مصنوعی، مقایسه با چیزهایی همچون مجموعه ترمیناتور را رد می‌کند. سیاست فعلی ایالات متحده در مورد این موضوع بیان می‌کند که یک اپراتور انسانی در مورد تصمیم‌گیری‌های مربوط به استفاده از نیروی کشنده برای جنگنده‌ها در جریان است.

مسئله اینجاست که آزمایش بسیار نگران‌کننده‌ای که سرهنگ همیلتون در رویداد انجمن سلطنتی هوانوردی برای حضار توضیح داد، سناریویی را ارائه می‌دهد که در آن ایمن بودن استفاده از این ابزار هوشمند مورد بحث قرار می‌گیرد.

سوالات بی پاسخ قابل توجهی در مورد آزمایشی که همیلتون در گردهمایی انجمن سلطنتی هوانوردی توضیح داد وجود دارد، به‌ویژه در مورد قابلیت‌های شبیه‌سازی شده و پارامترهایی که در طول آزمایش وجود داشت.

به‌عنوان مثال، اگر سیستم کنترل مبتنی بر هوش مصنوعی مورد استفاده در شبیه‌سازی قرار بود قبل از انجام هر گونه حمله مرگبار به دستور اپراتور انسانی نیاز داشته باشد، آیا این بدان معناست که اجازه دارد پارامترهای خود را در پرواز بازنویسی کند؟ یا اینکه چرا این سیستم طوری برنامه‌ریزی شده بود که پهپاد پس از حمله به نیروهای خودی امتیاز خود را از دست بدهد؟

جنگ‌افزارهای مبتنی بر هوش مصنوعی می‌توانند به پایان نسل بشر منجر شوند

جنگ‌افزارهای مبتنی بر هوش مصنوعی

همانطور که گفته شد، مقامات نظامی ایالات متحده در گذشته ابراز نگرانی کرده‌اند که سلطه هوش مصنوعی و ابزارهای ماشینی می‌تواند منجر به موقعیت‌هایی بسیار خطرآفرین شود.

از طرف دیگر، پل سلوا، ژنرال بازنشسته نیروی هوایی ایالات متحده، در مورد نیاز جامعه بشری به ابزارهای مبتنی بر هوش مصنوعی چنین می‌گوید:

در حال حاضر، مجموعه‌های داده‌ای که ما با آنها سروکار داریم آنقدر بزرگ و پیچیده شده‌اند که اگر ابزاری برای مرتب‌سازی آنها نداشته باشیم، در سیلی از اطلاعات غرق خواهیم شد. بنابراین اگر بتوانیم مجموعه‌ای از الگوریتم‌ها بسازیم که به یک ماشین اجازه می‌دهد آنچه را که در آن فضا طبیعی است بیاموزد، و سپس برای یک تحلیلگر تفاوت‌های آن را برجسته کنیم، این ماشین می‌تواند نحوه پیش‌بینی آب‌وهوا، روش کاشت محصولات و حتی نحوه تشخیص تغییرات در یک فضای نبرد مرگبار را تغییر دهد.»

با این وجود، استفاده از این ابزار پیامدهای اخلاقی نیز به‌همراه دارد. چگونه می‌توانیم متوجه شویم که در ذهن یک هوش مصنوعی با مجموعه‌ای از عملکردهای غیرمنتظره چه می‌گذرد؟ حتی با فرض ایجاد یک هوش مصنوعی پیرو اصول اخلاقی، بازهم نتیجه کار می‌تواند همانند آنچه توسط سرهنگ همیلتون مطرح شد شوکه کننده باشد.

پهپاد هوش مصنوعی آمریکا

افشای این آزمایش توسط همیلتون همچنین نگرانی‌های گسترده‌تری را در مورد تأثیرات منفی که فناوری‌های مبتنی بر هوش مصنوعی می‌توانند بدون در نظر گرفتن راهکارهای محافظتی مناسب داشته باشند، برجسته می‌کند.

موسسه Future of Life در ماه مارس با انتشار نامه‌ای هشدار داد: «سیستم‌های هوش مصنوعی در رقابت با هوش انسان می‌توانند خطرات وحشتناکی برای بشریت ایجاد کنند. سیستم‌های هوش مصنوعی قدرتمند تنها زمانی باید توسعه یابند که مطمئن شویم اثرات آن‌ها مثبت و خطرات آن‌ها قابل مدیریت خواهد بود.»

این نامه توسط تعدادی از چهره‌های برجسته در علوم کامپیوتر و حوزه‌های مرتبط، از جمله استیو وزنیاک و ایلان ماسک امضا شده و عناوین مهمی را به خود اختصاص داده است.

افشای این شبیه‌سازی بسیار نگران‌کننده توسط سرهنگ همیلتون به یک اقدام متعادل کننده اشاره می‌کند که او و همتایانش در آینده با آن مواجه خواهند شد، اگر در زمان مناسب با این موضوع دست و پنجه نرم نکنند.

پهپاد آمریکایی

با توجه به آنچه رخ داد، حتی تصور پهپادهای مجهز به هوش مصنوعی که قادر به کار با یکدیگر در گروه هستند مانند کابوس است!

گروه‌های مستقل شبکه‌ای این توانایی را خواهند داشت که چرخه تصمیم‌گیری دشمن را بشکنند و بر قابلیت‌های آن‌ها غلبه کنند. هرچه استقلال بیشتری به آنها بدهید، می‌توانند موثرتر باشند. اما اگر در این میان این ابزار هوشمند تصمیم بگیرند دست به عمل غیرمنتظره‌ای بزنند، نتیجه کاملا فاجعه‌بار خواهد بود.

همه این گفته‌ها منعکس‌کننده مسائل و بحث‌های واقعی و جدی هستند که ارتش ایالات متحده و سایر کشورها در مورد قابلیت‌های آینده مجهز به هوش مصنوعی با آن‌ها روبرو خواهند بود. هوش مصنوعی ابزاری است که باید برای متحول کردن ملت‌ها از آن استفاده کنیم، اما اگر به درستی به آن پرداخته نشود، عامل سقوط ملت‌ها خواهد بود.