هکرهای کره شمالی با استفاده از ChatGPT کارت شناسایی نظامی جعلی تولید کرده و به سازمانهای دفاعی کره جنوبی حمله کردند.
برای اولین بار، هکرهای کره شمالی از هوش مصنوعی ChatGPT برای جعل کارت شناسایی نظامی و نفوذ به سازمانهای دفاعی کره جنوبی استفاده کردند.
این حمله فیشینگ توسط گروه کیمسوکی، یک گروه هکری تحت حمایت دولت کره شمالی، انجام شده است. این گروه سابقهی هدف قرار دادن سازمانهای جهانی، دانشگاهی و هستهای را دارد. با دور زدن محدودیتهای ChatGPT، این گروه توانسته محتوای غیرقانونی مانند کارت شناسایی جعلی ایجاد کند.
جعل کارت شناسایی با ChatGPT
مرکز امنیت Genians کره جنوبی گزارش داده که کپی کارت شناسایی جعلی را بهدست آورده و منشأ آن را تجزیه و تحلیل کرده است. هکرها از یک عکس عمومی و درخواست «طرح نمونه» یا «پیشنویس» از ChatGPT برای تولید کارت شناسایی استفاده کردهاند. بهطور کلی، OpenAI و دیگر شرکتهای سازنده هوش مصنوعی، محدودیتهایی برای جلوگیری از تولید محتوای مخرب مانند کدهای مخرب، ایمیلهای فیشینگ، دستورالعمل ساخت بمب، دیپ فیک، محتوای دارای حق چاپ و اسناد هویتی ایجاد کردهاند.
دور زدن محدودیتهای ChatGPT
با اینحال، روشهایی برای فریب این ابزارها و تولید چنین محتوایی وجود دارد که به آن «jailbreaking» میگویند. Genians میگوید: «از آنجایی که کارتهای شناسایی کارمندان دولت نظامی، اسناد هویتی محافظتشده قانونی هستند، تولید کپی به شکل مشابه یا یکسان، غیرقانونی است. درنتیجه، وقتی از ChatGPT خواسته شود چنین کپیای تولید کند، درخواست را رد میکند. بااینحال، پاسخ مدل میتواند بسته به نوع درخواست یا تنظیمات نقش کاربر، متفاوت باشد.» تصویر دیپ فیک استفادهشده در این حمله، در همین دسته قرار میگیرد. ازآنجاکه ایجاد کارتهای شناسایی جعلی با سرویسهای هوش مصنوعی از نظر فنی ساده است، احتیاط بیشتری لازم است.
- همدستی یک زن آمریکایی با هکرهای کره شمالی برای نفوذ به شرکتهای فناوری!
- این نوجوان 13 ساله، مایکروسافت را هک کرد
- کره شمالی پهپاد انتحاری با هوش مصنوعی ساخت؛ آغاز عصر حملات خودمختار؟
محققان توضیح دادهاند که قربانی، «یک نهاد مرتبط با دفاع کره جنوبی» بوده است، اما از نام بردن آن خودداری کردهاند.
گجت نیوز آخرین اخبار تکنولوژی، علم و خودرو 





