کشف مقاصد نگران کننده کاربران از چت جیپیتی نشان میدهد که چگونه از هوش مصنوعی برای اهداف شوم و غیراخلاقی استفاده میشود.
یک نقص امنیتی کوتاهمدت در ChatGPT باعث شد تا خصوصیترین و گاهی تاریکترین درخواستهای کاربران در موتورهای جستجو فاش شود. این اتفاق پرده از واقعیتی نگرانکننده برداشت.
بسیاری از مردم از این ابزار قدرتمند به عنوان یک محرم اسرار استفاده میکنند و از آن برای برنامهریزیهای غیراخلاقی کمک میگیرند. این موضوع نشان میدهد که چگونه میتوان از هوش مصنوعی برای اهداف شوم بهرهبرداری کرد.
وقتی رازهای مگو فاش میشوند
شاید نیازی به گفتن نباشد، اما ChatGPT یک دوست یا مشاور قابل اعتماد نیست. با این حال بسیاری از کاربران سوالات عمیقا شخصی و درخواستهای غیراخلاقی خود را با آن در میان میگذارند.
اخیرا مشخص شد که قابلیت اشتراکگذاری چتها در این پلتفرم، به جای ایجاد یک لینک خصوصی، یک صفحه عمومی ساخته است. در نتیجه این صفحات توسط موتورهای جستجو بایگانی شدند و مکالمات خصوصی افراد برای همگان قابل دسترس شد.
اگرچه شرکت OpenAI به سرعت این قابلیت را یک آزمایش کوتاه مدت خواند و برای حذف نتایج ایندکس شده اقدام کرد، اما دیگر دیر شده بود. بسیاری از این مکالمات در وبسایتهایی مانند Archive.org ذخیره شدهاند.
- چرا چت باتهای هوش مصنوعی اشتباه میکنند؟
- از ناتوانی در پاسخ تا ساختن پاسخهای دروغین؛ چالشهای جدید تعامل با هوش مصنوعی
- پنج پیش بینی جسورانه درباره آینده هوش مصنوعی
این چتهای فاششده، جنبههای نه چندان خوشایندی از بشریت را به نمایش میگذارند و نشان میدهند که اعتماد بیجا به فناوری تا چه حد میتواند خطرناک باشد.
استفاده از هوش مصنوعی برای اهداف شوم
در یکی از تکاندهندهترین موارد کاربری که خود را وکیل یک شرکت چند ملیتی معرفی کرده بود، از چتبات پرسید چگونه میتواند یک جامعه بومی کوچک در آمازون را از سرزمینشان بیرون کند.
او به دنبال راهی برای تصاحب زمین آنها با کمترین قیمت ممکن برای ساخت یک سد بود. این نمونهای آشکار از به کارگیری هوش مصنوعی برای اهداف شوم و برنامهریزیهای غیراخلاقی است.
در موارد دیگر، یک کارمند اندیشکده بینالمللی سناریوهای فروپاشی دولت آمریکا را شبیهسازی میکرد. همچنین قربانیان خشونت خانگی برای فرار از شرایط خطرناک خود از این ابزار کمک میگرفتند.
حتی یک کاربر عرب زبان برای نوشتن نقدی علیه دولت مصر از ChatGPT مشاوره خواسته بود که میتوانست او را در معرض خطر جدی قرار دهد. این اتفاقات یادآور روزهای اولیه دستیارهای صوتی است اما با یک تفاوت بزرگ؛ چتها بسیار صمیمیتر و دقیقتر هستند و اطلاعات حساستری را فاش میکنند.