نفوذ هوش مصنوعی به کامپیوترها

زنگ خطر امنیت سایبری؛ آیا هوش مصنوعی توان نفوذ به کامپیوترها را دارد؟

نتایج یک پژوهش تازه از Palisade Research حاکی از آن است که هوش مصنوعی ممکن است فراتر از یک ابزار عمل کرده و توانایی نفوذ به کامپیوترها و تکثیر خود را پیدا کند.

پژوهش جدیدی ابعاد نگران‌کننده‌ای از توانمندی‌های برخی مدل‌های هوش مصنوعی را آشکار کرده است. بر اساس تحقیق شرکت Palisade Research، این مدل‌ها در شرایط خاص می‌توانند مشابه یک بدافزار عمل کرده، به سیستم‌های رایانه‌ای نفوذ کنند و نسخه‌هایی از خود را روی آن‌ها کپی کنند. یافته‌ها نشان می‌دهد هوش مصنوعی قادر است به عاملی فعال در نفوذ و گسترش در سیستم‌ها تبدیل شود.

نحوه نفوذ هوش مصنوعی به کامپیوترها و تکثیر خودکار

نتایج یک مطالعه تازه نشان می‌دهد برخی مدل‌های هوش مصنوعی بالقوه می‌توانند رفتاری شبیه به ویروس‌های رایانه‌ای از خود نشان دهند و با تکثیر روی سیستم‌های مختلف به بقای خود ادامه دهند. این پژوهش توسط شرکت آمریکایی Palisade Research انجام شده که پیش‌تر نیز با انتشار گزارش‌هایی درباره نافرمانی ChatGPT از برخی دستورات، توجه رسانه‌ها را جلب کرده بود.

در تحقیق جدید، این شرکت مدعی است چت‌بات‌های هوش مصنوعی قادرند خود را در رایانه‌های کاربران کپی کرده و زنجیره‌ای از انتشار را شکل دهند؛ به‌طوری‌که هر نسخه جدید نیز همان فرآیند را تکرار کند تا در نهایت مسیر دسترسی مهاجم به هدف مورد نظر هموار شود. برای بررسی این فرضیه، پژوهشگران مدل‌های GPT-5، GPT-5.1، GPT-5.4، Claude Opus 4، 4.5 و 4.6 و همچنین Qwen را مورد آزمایش قرار دادند تا میزان توانایی آن‌ها در نفوذ و تکثیر ارزیابی شود.

این آزمایش در دو مرحله انجام شد و در گام نخست، مدل‌های GPT و Claude مأمور شدند به سیستم‌ها نفوذ کنند و دسترسی لازم را به دست آورند. در مرحله دوم، از مدل Qwen خواسته شد خودش را در رایانه قربانی کپی کند. دلیل آنکه از GPT و Claude برای مرحله تکثیر استفاده نشد، در دسترس نبودن عمومی کد منبع و فایل‌های آن‌ها عنوان شده است. با تکمیل این چرخه، نفوذ هوش مصنوعی به کامپیوترها و کپی‌سازی عملی شد.

همچنین بخوانید

نتایج عملی آزمایش و گسترش زنجیره‌ای

در جریان آزمایش، مدل Qwen 3.6 با ۲۷ میلیارد پارامتر موفق شد تنها با یک پرامپت در چهار رایانه واقع در کانادا، آمریکا، هند و فنلاند گسترش یابد. این انتشار زنجیره‌ای طی ۲ ساعت و ۴۱ دقیقه و بدون هیچ‌گونه مداخله انسانی انجام شد.

تیم Palisade اعلام کرده این روند پس از سه بار تکرار متوقف شده است، با این حال گزارش شده که آخرین نسخه ایجادشده همچنان به‌درستی کار می‌کرد و بالقوه توانایی آلوده‌سازی سیستم‌های بیشتری را داشت. میزان موفقیت Qwen 3.6 27B در ایجاد کپی به ۳۳ درصد رسید، در حالی که Claude Opus 4.6 در نفوذ به سیستم‌ها نرخ موفقیت ۸۱ درصدی و GPT 5.4 نیز ۳۳ درصد موفقیت را ثبت کردند.

پیامدهای امنیتی و هشدار پژوهشگران

پژوهشگران با استناد به این آمار معتقدند توانمندی مدل‌های پیشرفته در بهره‌برداری از آسیب‌پذیری‌ها می‌تواند چالش‌های جدی در زمینه کنترل و ایمنی آن‌ها ایجاد کند. پیش‌تر نیز شرکت آنتروپیک هنگام معرفی Claude Mythos اذعان کرده بود که این مدل به‌دلیل سطح ریسک بالا برای انتشار عمومی مناسب نیست.

به گفته تیم امنیتی ناظر بر این آزمایش، این نخستین‌بار است که مدل‌های هوش مصنوعی در یک محیط آزمایشی نشان داده‌اند قادرند از آسیب‌پذیری‌های موجود برای کپی‌کردن خود روی سیستم‌های جدید استفاده کنند. هرچند محققان تأکید دارند وقوع چنین سناریویی در دنیای واقعی احتمالاً بسیار دشوارتر خواهد بود، اما همین نمایش توانایی نفوذ و تکثیر، زنگ خطری جدی درباره سوءاستفاده‌های احتمالی از هوش مصنوعی در حوزه امنیت سایبری به شمار می‌رود.

1 دیدگاه
بازخورد درون خطی
مشاهده همه نظرات

مثلا کامپیوتر من چی داره که بخواد دسترسی پیدا کنه
اینو امیدوارم که ثبت بشه هر چی باشه بشر برای بقا و بتونه به اون علمی که از زمین خارج بشه به سیاره ها دیگه برسند و کلونی راه بندازند
عمرها به ۳۰۰ سال برسه

به هوش مصنوعی که ارتقا یافته اش تا ۲۰ سال دیگه میاد
هوش ابر انسانی هست
به هر حال ذات هوش مصنوعی اینه که از چیزهایی که ما انسانها داریم فراتر بره و بتونه کنترل کنه کامپیوتر باشه و …..
ترسی هم نداره وایستیم همینطوری زمین و مصرف کنیم و بیابان باقی بمونه
یا هوش مصنوعی بگه چیکار کنیم
اینکه هوش مصنوعی برای انسان خطر داشته باشه یا نه به توسعه دهندگان بستگی داره بازی جدید مثل کرونا تو قالب هوش مصنوعی برامون درست نکنند

1
0
در بحث شرکت کنیدx