Excoino
استفاده هکرهای کره شمالی از ChatGPT

هکرهای کره شمالی با استفاده از ChatGPT به جنگ ارتش کره جنوبی رفتند!

هکرهای کره شمالی با استفاده از ChatGPT کارت شناسایی نظامی جعلی تولید کرده و به سازمان‌های دفاعی کره جنوبی حمله کردند.

برای اولین بار، هکرهای کره شمالی از هوش مصنوعی ChatGPT برای جعل کارت شناسایی نظامی و نفوذ به سازمان‌های دفاعی کره جنوبی استفاده کردند.

این حمله فیشینگ توسط گروه کیمسوکی، یک گروه هکری تحت حمایت دولت کره شمالی، انجام شده است. این گروه سابقه‌ی هدف قرار دادن سازمان‌های جهانی، دانشگاهی و هسته‌ای را دارد. با دور زدن محدودیت‌های ChatGPT، این گروه توانسته محتوای غیرقانونی مانند کارت شناسایی جعلی ایجاد کند.

جعل کارت شناسایی با ChatGPT

مرکز امنیت Genians کره جنوبی گزارش داده که کپی کارت شناسایی جعلی را به‌دست آورده و منشأ آن را تجزیه و تحلیل کرده است. هکرها از یک عکس عمومی و درخواست «طرح نمونه» یا «پیش‌نویس» از ChatGPT برای تولید کارت شناسایی استفاده کرده‌اند. به‌طور کلی، OpenAI و دیگر شرکت‌های سازنده هوش مصنوعی، محدودیت‌هایی برای جلوگیری از تولید محتوای مخرب مانند کدهای مخرب، ایمیل‌های فیشینگ، دستورالعمل ساخت بمب، دیپ فیک، محتوای دارای حق چاپ و اسناد هویتی ایجاد کرده‌اند.

دور زدن محدودیت‌های ChatGPT

با این‌حال، روش‌هایی برای فریب این ابزارها و تولید چنین محتوایی وجود دارد که به آن «jailbreaking» می‌گویند. Genians می‌گوید: «از آنجایی که کارت‌های شناسایی کارمندان دولت نظامی، اسناد هویتی محافظت‌شده قانونی هستند، تولید کپی به شکل مشابه یا یکسان، غیرقانونی است. درنتیجه، وقتی از ChatGPT خواسته شود چنین کپی‌ای تولید کند، درخواست را رد می‌کند. بااین‌حال، پاسخ مدل می‌تواند بسته به نوع درخواست یا تنظیمات نقش کاربر، متفاوت باشد.» تصویر دیپ فیک استفاده‌شده در این حمله، در همین دسته قرار می‌گیرد. ازآنجاکه ایجاد کارت‌های شناسایی جعلی با سرویس‌های هوش مصنوعی از نظر فنی ساده است، احتیاط بیشتری لازم است.

بیشتر بخوانید

محققان توضیح داده‌اند که قربانی، «یک نهاد مرتبط با دفاع کره جنوبی» بوده است، اما از نام بردن آن خودداری کرده‌اند.

پاسخ بدهید

وارد کردن نام و ایمیل اجباری است | در سایت ثبت نام کنید یا وارد شوید و بدون وارد کردن مشخصات نظر خود را ثبت کنید *

*