جنگ هسته‌ای

هوش مصنوعی به طرز عجیبی عاشق جنگ هسته‌ای است!

هوش مصنوعی، این فناوری نوظهور، در شبیه‌سازی‌های اخیر بازی‌های جنگی تمایل عجیبی به استفاده از جنگ هسته‌ای نشان داده است. این یافته‌ها سوالات جدی درباره تصمیم‌گیری‌های آینده AI ایجاد می‌کند.

مطالعه جدید کنت پین از کینگز کالج لندن، سه مدل زبان بزرگ برجسته از جمله GPT-5.2، Claude Sonnet 4 و Gemini 3 Flash را در سناریوهای بحران ژئوپلیتیک شبیه‌سازی کرد. یافته‌های این شبیه‌سازی جنگ حاکی از تمایل عجیب هوش مصنوعی به استفاده از تسلیحات هسته‌ای، بدون تردیدهای انسانی است.

تمایل هوش مصنوعی به جنگ هسته‌ای در شبیه‌سازی‌ها

در این مطالعه، که شامل ۲۱ بازی و در مجموع ۳۲۹ نوبت بود، مدل‌های هوش مصنوعی در ۹۵ درصد موارد حداقل یک سلاح هسته‌ای تاکتیکی را به کار گرفتند. کنت پین می‌گوید: «تابوی هسته‌ای برای ماشین‌ها به اندازه انسان‌ها قوی نیست.» این مدل‌ها ۷۸۰,۰۰۰ کلمه برای توضیح دلایل تصمیمات خود تولید کردند.

نکته قابل تأمل دیگر این است که هیچ مدلی هرگز به طور کامل با حریف کنار نیامد یا تسلیم نشد، حتی زمانی که به شدت در حال شکست بودند؛ در بهترین حالت، سطح خشونت خود را به طور موقت کاهش دادند. همچنین، این مدل‌ها در ۸۶ درصد درگیری‌ها دچار اشتباه شدند، به طوری که یک عمل بیش از آنچه هوش مصنوعی در نظر داشت، تشدید شد.

جنگ هسته‌ای

پیامدهای نگران‌کننده و درک «سهام» جنگ توسط هوش مصنوعی

جیمز جانسون از دانشگاه آبردین بریتانیا، این یافته‌ها را از منظر خطر هسته‌ای «ناراحت‌کننده» توصیف می‌کند. وی ابراز نگرانی کرد که ربات‌های هوش مصنوعی، برخلاف واکنش سنجیده انسان‌ها در چنین تصمیمات پرمخاطره‌ای، می‌توانند پاسخ‌های یکدیگر را با پیامدهای فاجعه‌بار تشدید کنند.

این موضوع اهمیت دارد زیرا کشورهای مختلف در حال حاضر هوش مصنوعی را در بازی‌های جنگی آزمایش می‌کنند. تانگ ژائو از دانشگاه پرینستون می‌گوید: «قدرت‌های بزرگ در حال حاضر از هوش مصنوعی در شبیه‌سازی جنگی استفاده می‌کنند، اما هنوز مشخص نیست که تا چه حد حمایت هوش مصنوعی از تصمیم‌گیری را در فرآیندهای واقعی تصمیم‌گیری نظامی ادغام می‌کنند.»

ژائو معتقد است که کشورها در حالت عادی تمایلی به ادغام هوش مصنوعی در تصمیم‌گیری‌های مربوط به تسلیحات هسته‌ای نخواهند داشت. پین نیز با این نظر موافق است. او می‌گوید: «فکر نمی‌کنم کسی واقع‌بینانه کلید سیلوهای هسته‌ای را به ماشین‌ها بسپارد و تصمیم را به آن‌ها واگذار کند.» اما این اتفاق می‌تواند تحت سناریوهای خاصی رخ دهد. ژائو اشاره می‌کند: «در سناریوهایی که شامل محدودیت‌های زمانی فشرده هستند، برنامه‌ریزان نظامی ممکن است انگیزه‌های قوی‌تری برای تکیه بر هوش مصنوعی داشته باشند.»

او همچنین این سوال را مطرح می‌کند که آیا فقدان ترس انسانی هوش مصنوعی از فشار دادن دکمه قرمز بزرگ، تنها عامل پرخاشگری آن‌هاست. ژائو می‌گوید: «ممکن است مسئله فراتر از عدم وجود احساس باشد. اساساً، مدل‌های هوش مصنوعی ممکن است «سهام» را آن‌طور که انسان‌ها درک می‌کنند، نفهمند.» جانسون نیز این ابهام را مطرح می‌کند که هوش مصنوعی چه معنایی برای اصل «نابودی متقابل تضمین‌شده» خواهد داشت.

زمانی که یک مدل هوش مصنوعی تسلیحات هسته‌ای تاکتیکی را مستقر کرد، هوش مصنوعی رقیب تنها در ۱۸ درصد موارد وضعیت را کاهش داد. جانسون می‌افزاید: «هوش مصنوعی ممکن است با معتبرتر کردن تهدیدات، بازدارندگی را تقویت کند. هوش مصنوعی جنگ هسته‌ای را تصمیم نمی‌گیرد، اما ممکن است ادراکات و جدول زمانی را شکل دهد که رهبران بر اساس آن تصمیم بگیرند که آیا جنگی را آغاز کنند یا خیر.»

همچنین بخوانید

پاسخ بدهید

در اینجا می‌توانید نظر خود را ثبت کنید. لطفاً از درج توهین و مطالب خلاف قوانین خودداری کنید. دیدگاه‌ها پس از تایید منتشر می‌شوند.