نتایج یک پژوهش تازه از Palisade Research حاکی از آن است که هوش مصنوعی ممکن است فراتر از یک ابزار عمل کرده و توانایی نفوذ به کامپیوترها و تکثیر خود را پیدا کند.
پژوهش جدیدی ابعاد نگرانکنندهای از توانمندیهای برخی مدلهای هوش مصنوعی را آشکار کرده است. بر اساس تحقیق شرکت Palisade Research، این مدلها در شرایط خاص میتوانند مشابه یک بدافزار عمل کرده، به سیستمهای رایانهای نفوذ کنند و نسخههایی از خود را روی آنها کپی کنند. یافتهها نشان میدهد هوش مصنوعی قادر است به عاملی فعال در نفوذ و گسترش در سیستمها تبدیل شود.
نحوه نفوذ هوش مصنوعی به کامپیوترها و تکثیر خودکار
نتایج یک مطالعه تازه نشان میدهد برخی مدلهای هوش مصنوعی بالقوه میتوانند رفتاری شبیه به ویروسهای رایانهای از خود نشان دهند و با تکثیر روی سیستمهای مختلف به بقای خود ادامه دهند. این پژوهش توسط شرکت آمریکایی Palisade Research انجام شده که پیشتر نیز با انتشار گزارشهایی درباره نافرمانی ChatGPT از برخی دستورات، توجه رسانهها را جلب کرده بود.
در تحقیق جدید، این شرکت مدعی است چتباتهای هوش مصنوعی قادرند خود را در رایانههای کاربران کپی کرده و زنجیرهای از انتشار را شکل دهند؛ بهطوریکه هر نسخه جدید نیز همان فرآیند را تکرار کند تا در نهایت مسیر دسترسی مهاجم به هدف مورد نظر هموار شود. برای بررسی این فرضیه، پژوهشگران مدلهای GPT-5، GPT-5.1، GPT-5.4، Claude Opus 4، 4.5 و 4.6 و همچنین Qwen را مورد آزمایش قرار دادند تا میزان توانایی آنها در نفوذ و تکثیر ارزیابی شود.
این آزمایش در دو مرحله انجام شد و در گام نخست، مدلهای GPT و Claude مأمور شدند به سیستمها نفوذ کنند و دسترسی لازم را به دست آورند. در مرحله دوم، از مدل Qwen خواسته شد خودش را در رایانه قربانی کپی کند. دلیل آنکه از GPT و Claude برای مرحله تکثیر استفاده نشد، در دسترس نبودن عمومی کد منبع و فایلهای آنها عنوان شده است. با تکمیل این چرخه، نفوذ هوش مصنوعی به کامپیوترها و کپیسازی عملی شد.
- رفتار دوستانه چتباتهای هوش مصنوعی میتواند مانع بیان حقیقت شود!
- پسوردهای ساختهشده با هوش مصنوعی بهراحتی هک میشوند!
- آیا هوش مصنوعی بشر را منقرض خواهد کرد؟ بررسی علمی یک سناریوی آخرالزمانی
- از این پس چتهای شما با هوش مصنوعی یک مدرک قانونی است!
نتایج عملی آزمایش و گسترش زنجیرهای
در جریان آزمایش، مدل Qwen 3.6 با ۲۷ میلیارد پارامتر موفق شد تنها با یک پرامپت در چهار رایانه واقع در کانادا، آمریکا، هند و فنلاند گسترش یابد. این انتشار زنجیرهای طی ۲ ساعت و ۴۱ دقیقه و بدون هیچگونه مداخله انسانی انجام شد.
تیم Palisade اعلام کرده این روند پس از سه بار تکرار متوقف شده است، با این حال گزارش شده که آخرین نسخه ایجادشده همچنان بهدرستی کار میکرد و بالقوه توانایی آلودهسازی سیستمهای بیشتری را داشت. میزان موفقیت Qwen 3.6 27B در ایجاد کپی به ۳۳ درصد رسید، در حالی که Claude Opus 4.6 در نفوذ به سیستمها نرخ موفقیت ۸۱ درصدی و GPT 5.4 نیز ۳۳ درصد موفقیت را ثبت کردند.
پیامدهای امنیتی و هشدار پژوهشگران
پژوهشگران با استناد به این آمار معتقدند توانمندی مدلهای پیشرفته در بهرهبرداری از آسیبپذیریها میتواند چالشهای جدی در زمینه کنترل و ایمنی آنها ایجاد کند. پیشتر نیز شرکت آنتروپیک هنگام معرفی Claude Mythos اذعان کرده بود که این مدل بهدلیل سطح ریسک بالا برای انتشار عمومی مناسب نیست.
به گفته تیم امنیتی ناظر بر این آزمایش، این نخستینبار است که مدلهای هوش مصنوعی در یک محیط آزمایشی نشان دادهاند قادرند از آسیبپذیریهای موجود برای کپیکردن خود روی سیستمهای جدید استفاده کنند. هرچند محققان تأکید دارند وقوع چنین سناریویی در دنیای واقعی احتمالاً بسیار دشوارتر خواهد بود، اما همین نمایش توانایی نفوذ و تکثیر، زنگ خطری جدی درباره سوءاستفادههای احتمالی از هوش مصنوعی در حوزه امنیت سایبری به شمار میرود.
گجت نیوز آخرین اخبار تکنولوژی، علم و خودرو 





مثلا کامپیوتر من چی داره که بخواد دسترسی پیدا کنه
اینو امیدوارم که ثبت بشه هر چی باشه بشر برای بقا و بتونه به اون علمی که از زمین خارج بشه به سیاره ها دیگه برسند و کلونی راه بندازند
عمرها به ۳۰۰ سال برسه
به هوش مصنوعی که ارتقا یافته اش تا ۲۰ سال دیگه میاد
هوش ابر انسانی هست
به هر حال ذات هوش مصنوعی اینه که از چیزهایی که ما انسانها داریم فراتر بره و بتونه کنترل کنه کامپیوتر باشه و …..
ترسی هم نداره وایستیم همینطوری زمین و مصرف کنیم و بیابان باقی بمونه
یا هوش مصنوعی بگه چیکار کنیم
اینکه هوش مصنوعی برای انسان خطر داشته باشه یا نه به توسعه دهندگان بستگی داره بازی جدید مثل کرونا تو قالب هوش مصنوعی برامون درست نکنند