جنگ اتمی موضوع مقالهای است که به تازگی توسط کارشناسان مسائل امنیتی تهیه شده و در آن احتمال اینکه تکنولوژی هوش مصنوعی (AI) تا سال 2040 یک جنگ جهانی عظیم را برای نابودی بشر راه بیاندازد، مطرح شده است.
جنگ اتمی هم به تهدیدهای بالقوه فناوری جنجالبرانگیز هوش مصنوعی (AI) اضافه شد؛ به تازگی متخصصان در قالب یک پژوهش هشدار دادهاند که ممکن است تکنولوژی هوش مصنوعی تا 20 سال آینده با یک جنگ هسته ای بزرگ نسل ما را به کلی از بین ببرد و بشر هم به احتمال قوی توانایی متوقف کردن این فاجعه را نخواهد داشت.
هوش مصنوعی و جنگ اتمی
در ابتدا موضوعی مربوط به دوران جنگ سرد و مسابقه تسلیحاتی ابرقدرتهای جهان را مورد توجه قرار میدهیم؛ در آن زمان یک دکترین سیاسی به نام «تخریب حتمی متقابل» (MAD) در جریان بود که طرفین درگیری را از بهکارگیری سلاح های هسته ای منع میکرد و بر این اساس که حمله اتمی به یک کشور، اقدام متقابل آن کشور را به دنبال دارد و باعث نابودی کامل هر دو طرف میشود، صلحی جهانی بین آمریکا و روسیه در جریان بود.
این استراتژی ترسناک و دلهرهآور در حفظ صلح در آن دوران تاثیرگذار بود و از نابودی کامل و یا جزئی نسل بشر جلوگیری کرد، اما نکته اینجاست که دههها از زمان جنگ سرد گذشته و ابرقدرتها وارد مرحله تازهای از پیشرفتهای نظامی شدهاند.
همانطور که در تحقیق جدید موسسه رند (Rand Corporation) اعلام شده، وارد شدن هوش مصنوعی به معادلات میتواند استراتژی MAD برای جلوگیری از بالا گرفتن تنشهای هستهای را خنثی کند و باعث راحتتر شدن شرایط شروع یک جنگ جهانی اتمی شود.
موسسه رند که به صورت غیرانتفاعی، در ایالات کالیفرنیا آمریکا فعالیت میکند، به نیروهای مسلح ایالات متحده در زمینه سیاستهای جهانی مشاوره میدهد و پژوهش جدید محققان آن، توجه زیادی به خود جلب کرده است.
بحث خطرات هوش مصنوعی در چند سال گذشته بسیار داغ بوده و این موسسه هم با توجه به پیشرفتهای چشمگیر AI برآورد کرده که تا چند دهه آینده احتمال عملی شدن سناریوهای مختلفی با دخالت این فناوری وجود دارد و به همین دلیل خطر بروز جنگ اتمی بین ابرقدرتها باید جدی گرفته شود.
یکی از این سناریوها رقابت خطرناک بین قدرتهاست که در صورت عقب افتادن یک کشور از پیشرفتهای سایر کشورها، ممکن است باعث شود که کشور مورد نظر در تلاش برای رسیدن به توازن قدرت اقدامات خطرناکی را در جهت توسعه دانش هوش مصنوعی خود انجام دهد و این کار احتمال خارج شدن فناوری از کنترل را بالا میبرد.
از طرف دیگر، همانطور که اندرو لون (Andrew Lohn)، از مهندسان شرکت رند و عضو تیم نویسندگان تحقیق گفته است، افزایش وابستگی کشورها به هوش مصنوعی شانس بروز اشتباهات فاجعهبار در این زمینه را بالا میبرد و در صورتی که امکانات AI یکی از ابرقدرتها به اندازهای پیشرفت کند که بتواند طرف مقابل را کاملا خلع سلاح هسته ای کند، سیستم بازدارنده تخریب حتمی متقابل دیگر کارساز نخواهد بود.
همچنین، بحث هک شدن تجهیزات وابسته به هوش مصنوعی کشورها هم مطرح میشود که در صورت تامین نشدن امنیت مجازی دستگاهها، هر فرد یا گروهی میتواند سیستمهای کنترلکننده تسلیحاتی کشورها را مورد حمله سایبری قرار دهد و حتی بدون دخالت عمدی ابرقدرتها، فرآیند نابودی نسل بشر را کلید بزند.
به همین خاطر است که دانشمندان موسسه رند در کنار شخصیتهای بزرگی مانند ایلان ماسک، مدیر کمپانیهای تسلا و اسپیس ایکس و همچنین بیل گیتس، دومین مرد ثروتمند دنیا، همواره در مورد خطرات هوش مصنوعی هشدار میدهند و در کنار تاکید بر روی اهمیت کنترل توان هستهای کشورهای جهان، تلاش میکنند تا اقدامات لازم برای کاهش ریسک بروز جنگ هستهای مورد نظر را انجام دهند.