هوش مصنوعی، این فناوری نوظهور، در شبیهسازیهای اخیر بازیهای جنگی تمایل عجیبی به استفاده از جنگ هستهای نشان داده است. این یافتهها سوالات جدی درباره تصمیمگیریهای آینده AI ایجاد میکند.
مطالعه جدید کنت پین از کینگز کالج لندن، سه مدل زبان بزرگ برجسته از جمله GPT-5.2، Claude Sonnet 4 و Gemini 3 Flash را در سناریوهای بحران ژئوپلیتیک شبیهسازی کرد. یافتههای این شبیهسازی جنگ حاکی از تمایل عجیب هوش مصنوعی به استفاده از تسلیحات هستهای، بدون تردیدهای انسانی است.
تمایل هوش مصنوعی به جنگ هستهای در شبیهسازیها
در این مطالعه، که شامل ۲۱ بازی و در مجموع ۳۲۹ نوبت بود، مدلهای هوش مصنوعی در ۹۵ درصد موارد حداقل یک سلاح هستهای تاکتیکی را به کار گرفتند. کنت پین میگوید: «تابوی هستهای برای ماشینها به اندازه انسانها قوی نیست.» این مدلها ۷۸۰,۰۰۰ کلمه برای توضیح دلایل تصمیمات خود تولید کردند.
نکته قابل تأمل دیگر این است که هیچ مدلی هرگز به طور کامل با حریف کنار نیامد یا تسلیم نشد، حتی زمانی که به شدت در حال شکست بودند؛ در بهترین حالت، سطح خشونت خود را به طور موقت کاهش دادند. همچنین، این مدلها در ۸۶ درصد درگیریها دچار اشتباه شدند، به طوری که یک عمل بیش از آنچه هوش مصنوعی در نظر داشت، تشدید شد.
پیامدهای نگرانکننده و درک «سهام» جنگ توسط هوش مصنوعی
جیمز جانسون از دانشگاه آبردین بریتانیا، این یافتهها را از منظر خطر هستهای «ناراحتکننده» توصیف میکند. وی ابراز نگرانی کرد که رباتهای هوش مصنوعی، برخلاف واکنش سنجیده انسانها در چنین تصمیمات پرمخاطرهای، میتوانند پاسخهای یکدیگر را با پیامدهای فاجعهبار تشدید کنند.
این موضوع اهمیت دارد زیرا کشورهای مختلف در حال حاضر هوش مصنوعی را در بازیهای جنگی آزمایش میکنند. تانگ ژائو از دانشگاه پرینستون میگوید: «قدرتهای بزرگ در حال حاضر از هوش مصنوعی در شبیهسازی جنگی استفاده میکنند، اما هنوز مشخص نیست که تا چه حد حمایت هوش مصنوعی از تصمیمگیری را در فرآیندهای واقعی تصمیمگیری نظامی ادغام میکنند.»
ژائو معتقد است که کشورها در حالت عادی تمایلی به ادغام هوش مصنوعی در تصمیمگیریهای مربوط به تسلیحات هستهای نخواهند داشت. پین نیز با این نظر موافق است. او میگوید: «فکر نمیکنم کسی واقعبینانه کلید سیلوهای هستهای را به ماشینها بسپارد و تصمیم را به آنها واگذار کند.» اما این اتفاق میتواند تحت سناریوهای خاصی رخ دهد. ژائو اشاره میکند: «در سناریوهایی که شامل محدودیتهای زمانی فشرده هستند، برنامهریزان نظامی ممکن است انگیزههای قویتری برای تکیه بر هوش مصنوعی داشته باشند.»
او همچنین این سوال را مطرح میکند که آیا فقدان ترس انسانی هوش مصنوعی از فشار دادن دکمه قرمز بزرگ، تنها عامل پرخاشگری آنهاست. ژائو میگوید: «ممکن است مسئله فراتر از عدم وجود احساس باشد. اساساً، مدلهای هوش مصنوعی ممکن است «سهام» را آنطور که انسانها درک میکنند، نفهمند.» جانسون نیز این ابهام را مطرح میکند که هوش مصنوعی چه معنایی برای اصل «نابودی متقابل تضمینشده» خواهد داشت.
زمانی که یک مدل هوش مصنوعی تسلیحات هستهای تاکتیکی را مستقر کرد، هوش مصنوعی رقیب تنها در ۱۸ درصد موارد وضعیت را کاهش داد. جانسون میافزاید: «هوش مصنوعی ممکن است با معتبرتر کردن تهدیدات، بازدارندگی را تقویت کند. هوش مصنوعی جنگ هستهای را تصمیم نمیگیرد، اما ممکن است ادراکات و جدول زمانی را شکل دهد که رهبران بر اساس آن تصمیم بگیرند که آیا جنگی را آغاز کنند یا خیر.»
- 8 طرح پنهان و اضطراری دولت آمریکا برای نجات از آخرالزمان؛ از زامبیها تا جنگ هستهای
- پیامد شوم جنگ هستهای: قحطی جهانی و نابودی 87 درصد محصولات کشاورزی
- ابرشهر نظامی چین ساخته میشود؛ پناهگاهی در برابر حملات هستهای و مرکز فرماندهی برای جنگ جهانی سوم
- بریتانیا نقشه پناهگاههای امن در برابر بمب اتم را منتشر کرد؛ جنگ هستهای در راه است؟
- لباس جنگ ستارگانی روسیه به ساعت مقاوم در برابر انفجار هستهای مجهز میشود
گجت نیوز آخرین اخبار تکنولوژی، علم و خودرو 






