سناریو ترسناک که هوش مصنوعی رقم می‌ زند

10 سناریو ترسناک که هوش مصنوعی همین حالا می‌تواند رقم بزند

با اینکه استفاده از هوش مصنوعی منافع بسیاری برای جامعه انسانی به‌ارمغان می‌آورد، اما این فناوری تهدیدات و مخاطرات زیادی نیز به همراه دارد و می‌تواند سناریو های ترسناکی را رقم بزند.

هوش مصنوعی را می‌توان به یک اسب وحشی تشبیه کرد که بی‌وقفه در مسیر پیشرفت جلو می‌رود. روند توسعه این فناوری با چنان سرعتی پیش می‌رود که حتی متخصصان این علم نیز نمی‌توانند با آن همگام شوند.

چند سال پیش، ابزار مبتنی بر هوش مصنوعی صرفاً ابزاری ایجاد شده از روی کنجکاوی متخصصان و تولیدکنندگان بودند، اما در دنیای امروز، این فناوری به‌قدری پیشرفت کرده است که تمامی مقالات (حتی این مقاله!) را می‌توان با ابزار هوش مصنوعی نوشت.

در حال حاضر، مایکروسافت نسخه‌ای از GPT-4 OpenAI را در بینگ گنجانده، از طرف دیگر گوگل رقیبی به‌نام Bard را راه‌اندازی کرده است. این فناوری‌های جدید پتانسیلی باورنکردنی برای متحول کردن زندگی ما دارند و می‌توانند سناریوهایی را رقم بزنند که داستان‌های علمی تخیلی تنها رویای آن را داشتند!

خطر هوش مصنوعی

حتی خود هوش مصنوعی نیز با این موضوع موافق است و اگر از ChatGPT در مورد آینده فناوری بپرسید، به شما می‌گوید که هوش مصنوعی جهش‌های عظیمی را به سمت یک تحول شگفت‌انگیز پیش خواهد برد.

مانند هر فناوری دیگر، در این تکنولوژی نیز خطرات پنهانی وجود دارد که احتمالاً هنوز برخی از آنها را درک نکرده یا حتی تصور نکرده‌ایم. در حال حاضر حتی اگر هر شرکت فناوری تلاش برای پیشرفت فناوری‌های هوش مصنوعی خود را متوقف کند، آن فناوری‌ها می‌توانند مشکلات وحشتناک زیادی را در شکل فعلی‌شان ایجاد کنند.

از دیپ فیک گرفته تا دستکاری در بازار سهام و جنگ‌های بین‌المللی، در این مقاله 10 سناریو ترسناک که هوش مصنوعی همین حالا می‌تواند رقم بزند را بررسی خواهیم کرد.

1. هوش مصنوعی می‌تواند کنترل غول‌های فناوری‌ و دولت‌ها را بر زندگی ما افزایش دهد

تسلط هوش مصنوعی بر زندگی ما

گوگل، فیس‌بوک و دیگر غول‌های فناوری سال‌های زیادی را صرف مطالعه در مورد عادت‌ها و تمایلات کاربران کردند تا با تحت تاثیر قرار دادن احساسات آنها درآمد بیشتری کسب کرده و منافع بیشترب به دست آورند.

اکنون که هوش مصنوعی بالاخره به‌عنوان بخشی از زندگی روزمره ما وارد عرصه تکنولوژی شده است، قابلیت‌های آن تنها شرکت‌هایی را تقویت می‌کند که می‌خواهند برای منافع خود تأثیر بیشتری بر زندگی ما داشته باشند.

از تبلیغات گرفته تا خانه‌های هوشمند که می‌توانند عادات زندگی ما را بررسی کنند، هوش مصنوعی اکنون قادر است حتی حریم خصوصی ما را بر هم بزند. در همین حال، دولت ایالات متحده علاقه بیشتری به مخفی کردن فناوری‌های بزرگ پیدا کرده و ابزار مبتنی بر هوش مصنوعی را مجبور می‌کند داده‌های خصوصی کاربران را تحویل دهند.

جهش‌های عظیمی که امروزه در فناوری ChatGPT مشاهده می‌شود ممکن است سبب ایجاد ناهنجاری شود. حتی این احتمال نیز وجود دارد که این برنامه با اهدافی فراتر از حد تصور ما توسعه داده شده باشد.

در هر صورت، تمامی ابزارهای مبتنی بر هوش مصنوعی قادر به ایجاد آسیب‌های ملموس در مقیاس گسترده هستند و با وجود بهره‌مندی از قابلیت‌های چشمگیر آنها، باید خطراتی که ممکن است از طرف آنها ما را تهدید کند بشناسیم.

2. دیپ‌فیک‌ها می‌توانند به انتشار اطلاعات نادرست سیاسی منجر شوند

خطر دیپ‌ فیک

دیپ‌ فیک (DeepFake) یک فناوری جدید مبتنی‌بر هوش‌مصنوعی است که در محتوای صوتی و تصویری دست برده و آن‌ را به‌صورت دلخواه و حتی متفاوت‌ از واقعیت تغییر می‌دهد. در حال حاضر، مدل‌های هوش مصنوعی موجود می‌توانند هر تصویر یا صدایی را تولید کنند و به طور فزاینده‌ای قادر به تولید کلیپ‌های ویدیویی هستند.

با این قابلیت، این فناوری شرایط لازم را برای یک فرد سواستفاده‌گر مهیا می‌کند تا یک اتهام نادرست را علیه یک دشمن سیاسی مطرح کند. سیل اطلاعات نادرست سیاسی تولید شده توسط هوش مصنوعی می‌تواند بر سرنوشت کشورها و دولت‌ها تاثیر بسیاری بگذارد.

در چند هفته گذشته، پس از اینکه AI Midjourney یک به‌روزرسانی جدید منتشر کرد، عکس‌هایی به‌طور گسترده منتشر شدند که نمونه‌ای از اثر مخرب دیپ فیک را به‌نمایش می‌گذارند. از جمله تصاویر منتشر شده توسط این فناوری می‌توان به تصویر پاپ با پوشش خواننده‌های رپ و تصویر دونالد ترامپ که توسط پلیس دستگیر شده است اشاره کرد.

تمام کاربران آگاه هستند که هر دو تصویر به‌عنوان شوخی ساخته شده‌اند. با این حال، بسیاری از کاربران آن‌ها را بدون بهره‌مندی از زمینه‌های اصلی تصاویر، در رسانه‌های اجتماعی منتشر کردند.

خطر دیپ‌ فیک

هوش مصنوعی در حال حاضر به قدری مستعد خطاست که نیازی نیست اطلاعات غلطی که تولید می‌کند عمدی باشد تا مردم را گیج کند. چند وقت پیش از ChatGPT به‌دلیل افترا در استرالیا شکایت شده است (چت بات به دروغ یک سیاستمدار ملبورنی را به فساد متهم کرده بود).

مهم‌ترین خطر در اینجا صرفاً انتشار گسترده تصاویر ساختگی در بین مردم نیست، بلکه این است که ما وارد دنیای جدید و عجیبی خواهیم شد که در آن هیچ عکس، ویدیو یا ضبط صوتی قابل اعتماد نخواهد بود.

سیاستمداران و سایر مقامات ممکن است هرگونه شواهد مبنی بر انجام اشتباه را به‌بهانه جعلی بودن سند رد کنند. از طرف دیگر روزنامه‌نگاران ممکن است در ثبت و انتشار اخبار دچار خطاهای بزرگ شوند.

3. هوش مصنوعی می‌تواند تغییرات اقلیمی را تسریع بخشد

هوش مصنوعی می‌تواند تغییرات اقلیمی را تسریع بخشد

در چند دهه اخیر، جامعه انسانی بیش‌از هر زمان دیگری با تهدید تغییرات آب و هوایی مواجه بوده و زمان ما برای کنترل انتشار کربن دی اکسید در هوا قبل از وقوع بدترین حادثه رو به اتمام است.

هوش مصنوعی با توانایی درک اطلاعات پیچیده و متفاوت، می‌تواند ابزاری حیاتی در ابداع راه‌حل‌های جدید برای جلوگیری از وقوع بدترین فاجعه باشد.

در حال حاضر، این تکنولوژی می‌تواند با شناسایی شیوه‌های نادرست و خودکارسازی مصرف انرژی، به کارآمدتر کردن کل شرکت‌ها در مصرف انرژی کمک کند. در همین حین، هوش مصنوعی می‌تواند سرعت نابودی زمین را حتی بیشتر کند!

هوش مصنوعی ممکن است به ما در حفظ منابع کمک کند، اما از مقادیر زیادی انرژی برای عملکرد خود استفاده می‌کند. همانطور که مدل‌های هوش مصنوعی پیشرفته‌تر می‌شوند، مصرف انرژی آن‌ها نیز افزایش می‌یابد.

برخی از مدل‌های فعلی هوش مصنوعی دقیقا به‌اندازه منابع پرمصرف، انرژی مصرف می‌کنند. بنابراین قبل‌از پذیرش روند رو به رشد توسعه‌ی هوش مصنوعی، باید سناریو های ترسناک که هوش مصنوعی می‌تواند رقم بزند را پیش‌بینی کرده و با روش‌های کارآمدتری به مقابله با تغییرات اقلیمی بپردازیم.

4. هوش مصنوعی می‌تواند موتورهای جستجو را از رده خارج کند

خطر هوش مصنوعی برای موتوهای جستجو

به‌نظر می‌رسد با پیدایش ChatGPT، دیگر دوران موتورهای جستجو به پایان رسیده است. این بات با قابلیت نوشتن ایمیل، مقاله، شعر، دستیار مجازی، پاسخگویی به سؤالات و حتی نگارش کدهای برنامه‌نویسی، می‌تواند جایگزین بسیاری از فناوری‌ها از جمله موتورهای جستجو شود.

مدتی است که بینگ مایکروسافت با ادغام نسخه‌ای از چت GPT در موتور جستجوی خود، تیتر خبرها شده. شرکت‌های فعال در این حوزه بر این باورند که هوش مصنوعی آینده‌ی سرچ اینترنتی است. اما باید این نکته را نیز در نظر گرفت که این تکنولوژی می‌تواند به همان اندازه پایان کار موتورهای جستجو باشد.

وب‌سایت‌هایی که برای درآمد تبلیغاتی به بازدید از صفحه متکی هستند، با روی کار آمدن هوش مصنوعی ممکن است محتوای خود را توسط ربات‌هایی که اطلاعات را مستقیماً به کاربران ارائه می‌دهند غارت شده ببینند و جریان درآمد اولیه آنها قطع شود. این امر منجر به فروپاشی گسترده بازار تبلیغات دیجیتال می‌شود.

خطر هوش مصنوعی برای موتورهای جستجو

حتی اگر عملکرد اصلی موتورهای جستجو در طول این تغییر دست نخورده باقی بماند، هوش مصنوعی مولد ممکن است همچنان آنها را تبدیل به ابزاری بی‌فایده کند.

سایت‌های کوچکتر اولین سایت‌هایی هستند که پس از تسلط هوش مصنوعی در این عرصه سقوط می‌کنند، اما غول‌های فناوری مانند فیس‌بوک می‌توانند با آنها همراه شده و سود بیشتری کسب کنند.

سریدار رامازوارمی، استارتاپ موتور جستجوی نیوا و سرپرست سابق بخش تبلیغات گوگل در مورد استفاده از قابلیت‌های هوش مصنوعی در موتورهای جستجو گفت:

نمی‌توان توانایی بی‌نظیر مدل‌های زبانی و هوش مصنوعی در جستجوی اطلاعات و پاسخ‌دادن به سؤالات به‌گونه‌ای که قبلاً امکان‌پذیر نبوده است را نادیده گرفت. بهره‌مندی این ابزار از این‌ قابلیت‌ها می‌تواند سرچ اینترنتی در فضای وب را برای کابران هیجان‌انگیز کند. به‌عقیده‌ی من، در آینده‌ای نزدیک تمام شرکت‌های فعال در این عرصه با روش‌های گوناگون زمینه استفاده از چنین قابلیت‌هایی را فراهم خواهند کرد.

5. هوش مصنوعی می‌تواند اینترنت را غیرقابل استفاده کند

هوش مصنوعی می‌تواند اینترنت را غیرقابل استفاده کند

پس از اینکه ابزار مبتنی بر هوش مصنوعی تسلط کامل موتورهای جستجو را به‌دست گرفتند، این مدل‌ها متن جدیدی را که ظاهراً متعلق به خودشان است، بیرون می‌دهند.

با وجود متن‌های جدید هوش مصنوعی، طولی نخواهد کشید که بیشتر فضای اینترنت با متن‌های تصادفی پر شود. نیل کلارک، سردبیر مجله علمی تخیلی معروف Clarkesworld، قبلاً شاهد افزایش چشمگیری در ارسال داستان‌های تولید شده توسط هوش مصنوعی بوده که او را مجبور کرده است داستان‌های بی‌شماری را که توسط ماشین‌ها نوشته شده‌اند بررسی کند.

حتی در حال حاضر نیز اینترنت‌گردی بدون مواجهه با ربات‌ها و هرزنامه‌های سئو، همراه با متن‌های بی‌معنایی که توسط انسان‌های واقعی تولید می‌شود، به‌اندازه کافی سخت است.

حال اگر بی‌نهایت متن تولید شده هوش مصنوعی را به آن ترکیب اضافه کنید، پیدا کردن مطلب مورد نظر با محتوای باارزش به‌قدری دشوار می‌شود که کل اینترنت را اساساً به‌محیطی غیرقابل استفاده تبدیل می‌کند.

متیو کرسچنبام، استاد مطالعات دیجیتال در دانشگاه مریلند، در مورد این سناریو ترسناک که هوش مصنوعی می‌تواند رقم بزند هشدار می‌دهد و می‌نویسد: «همه این پدیده‌ها، ارزش محتوای تولید شده در اینترنت را به‌خطر می‌اندازند و سرورها، کابل‌های مخابراتی و مراکز داده‌ها را مسدود می‌کنند.»

6. محتوای تولید شده توسط هوش مصنوعی می‌تواند به سلامت افراد آسیب بزند

خطرات هوش مصنوعی

یکی از مهم‌ترین مسائل در مورد مدل‌های زبان کنونی، گرایش آن‌ها به تولید چیزی است که «توهم» نامیده می‌شود. این حالت زمانی اتفاق میفتد که هوش مصنوعی اطلاعات نادرستی را در قالب پاسخی برای سرچ کاربران ارائه می‌دهد.

برای مثال، ChatGPT ویژگی‌هایی برای یک مدل تلفن خاص معرفی می‌کند که در واقع آن مدل فاقد قابلیت‌های ذکر شده است. این نوع اطلاعات آسیب چندانی به مخاطب نمی‌زنند، اما برخی از پاسخ‌های ارائه شده توسط این تکنولوژی بی‌خطر نیستند و اگر کاربر توصیه‌های هوش مصنوعی را بپذیرد، می‌تواند منجر به آسیب واقعی شود.

تصور کنید محتوای ارائه شده توسط یک ابزار هوش مصنوعی مدت زمان سالم ماندن غذایی همچون مرغ پخته شده در دمای خانه را یک هفته اعلام کند؛ در این حالت اگر کاربر به این محتوا اعتماد کند، در معرض مسمومیت غذایی قرار خواهد گرفت.

یا حتی وحشتناک‌تر؛ اگر کسی در مورد میل به خودکشی با یک چت بات هوش مصنوعی صحبت کند، ممکن است به دلیل یک اشتباه، چت بات فرد را به‌انجام این کار تشویق کرده و این خطای ساده ممکن است به غم انگیزترین نتایج منجر شود.

اگر خوش‌بینانه به این موضوع نگاه کنیم، می‌توان تصور کرد که هیچکس کورکورانه به یک هوش مصنوعی اعتماد نمی کند، اما بازهم نمی‌توان با اطمینان کامل در مورد عدم تاثیر متن تولید شده توسط این ابزار بر روی افکار مردم صحبت کرد.

مدت زمان زیادی نیاز است که عموم مردم متوجه شوند مدل‌های فعلی هوش مصنوعی چقدر مستعد خطا هستند و می‌توانند مضر واقع شوند. برخی افراد خاص مانند سالمندان یا افراد دارای ناتوانی‌های شناختی، ممکن است به‌ویژه مستعد پذیرش محتوای تولید شده توسط ابزاری همچون ChatGPT باشند.

7. ربات‌های ترید هوش مصنوعی می‌توانند بازار سهام را از بین ببرند

ربات‌های ترید هوش مصنوعی

با توانمند شدن سیستم‌های هوش مصنوعی، بازار سهام شاهد رشد گسترده‌ای در معاملات ربات‌ها بوده است. این ربات‌ها از الگوریتم‌های پیچیده برای شرط‌بندی روی سهام و خرید و فروش از طرف مشتری خود براساس نوسانات بازار استفاده می‌کنند.

درحال حاضر بسیاری از شرکت‌های فعال در بازار سهام در سراسر جهان، از حوزه هوش مصنوعی کسب درآمد می‌کنند و برآورد می‌شود ارزش بازار هوش مصنوعی تا ۲ سال دیگر به حدود ۱۶ میلیارد دلار خواهد رسید. فروش جهانی ربات‌های هوش مصنوعی برای فعالیت در شرکت‌ها به جای نیروی کار نیز به‌طور فزاینده‌ای در حال افزایش است.

به‌دلیل پیچیدگی و در نتیجه غیرقابل پیش‌بینی بودن مدل‌های فعلی، در صورت استقرار آنها توسط معامله‌گران، ربات‌های مبتنی بر هوش مصنوعی به راحتی می‌توانند شوک‌های عظیمی را به بازار وارد کنند.

به عنوان مثال، تصور کنید که بسیاری از معامله‌گران از یک پلتفرم هوش مصنوعی استفاده می‌کنند که در تصمیم‌گیری دچار خطاست. این ابزار می‌تواند به‌اشتباه سهام یک شرکت درحال سقوط را برای همه کاربران خود خریداری کرده و بازار را به‌ آشوب بکشد.

در حالی که این یکی از سناریوهای بسیار بعید است، اما بدون شک در صورت استقرار مدل‌های هوش مصنوعی در این حوزه، برخی از فعالان برای کسب سود بیشتر از خطای هوش مصنوعی سواستفاده می‌کنند.

8. هوش مصنوعی می‌تواند به دستگاه‌های اجرایی و روند اجرای قانون نفوذ کند

نفوذ هوش مصنوعی

در فیلم «گزارش اقلیت»، یک اداره پلیس با تکیه بر موجوداتی که می‌توانند آینده را ببینند، افراد را قبل از ارتکاب جرم دستگیر می‌کند. بدیهی به نظر می‌رسد که چنین سناریویی از نظر اخلاقی وحشتناک خواهد بود و منجر به دستگیری‌های نادرست بسیاری می‌شود.

با این حال، برخی از واحدهای اجرایی از وجود همچین قابلیتی بسیار استقبال می‌کنند. امروزه اگر شما در ایالات متحده به‌جرمی متهم شوید، سرنوشت شما توسط رایانه در بسیاری از حوزه‌های قضایی تعیین می‌شود.

همانطور که توسط بررسی فناوری MIT اشاره شده است، اینکه آیا در وهله اول پلیس در محل برای دستگیری حاضر است یا خیر، توسط برنامه‌ای به نام PredPol تعیین می‌شود. این برنامه همچنین تلاش می‌کند براساس دستگیری‌های قبلی، احتمال وقوع جرم را پیش‌بینی کند.

هنگامی که یک مظنون متهم شد، دادگاه‌ها از ابزاری به‌نام COMPAS برای تعیین آزادی پیش‌از محاکمه و مجازات استفاده می‌کنند. پروژه مارشال نشان داد پلیس همچنین از فناوری تشخیص چهره با سرعت رو به رشدی استفاده می‌کند.

این ابزارهای موجود می‌توانند منجر به نرخ بالای بازداشت پیش از محاکمه و صدور احکام شدیدتر شده و تفاوت‌های نژادی و جنسیتی را در سیستم قضایی افزایش دهند. اما اکنون، قوانینی برای جلوگیری از استفاده از ابزار مبتنی بر هوش مصنوعی وجود ندارد و خود این فناوری تهدید می‌کند که نقشی فزاینده در اجرای قانون ایفا خواهد کرد.

9. تعصب در مدل‌های هوش مصنوعی می‌تواند منجر به نابرابری بیشتر شود

تعصب در مدل‌های هوش مصنوعی

در سال 2014، آمازون یک ابزار هوش مصنوعی برای کمک به استخدام ساخت. این برنامه یک وظیفه ساده داشت: بررسی درخواست‌های شغلی و انتخاب بهترین نامزدها. اما در سال 2015، غول تجارت الکترونیک متوجه شد که این برنامه نسبت به نامزدهای مرد متعصبانه عمل می‌کند!

آمازون این برنامه را در سال 2018 متوقف کرد. استخدام ناموفق هوش مصنوعی تنها نمونه‌ای از تعصباتی است که بر هوش مصنوعی از طریق مجموعه داده‌های آموزشی آن تأثیر می‌گذارد.

تبعیض یکی از بزرگترین و شناخته شده‌ترین سناریو های ترسناک است که هوش مصنوعی می‌تواند رقم بزند و اجتناب از آن بسیار سخت است. شرکت‌هایی مانند OpenAI سعی کرده‌اند این مشکل را با تجهیز ChatGPT به دستورالعمل‌های خودسانسوری برطرف کنند.

با این حال، ساختن ربات چت به‌صورت نژادپرستانه هنوز امکان‌پذیر است. از آنجایی که این فناوری در آینده راه خود را به محصولات متعدد دیگری باز می‌کند، نمی‌توان گفت که تعصبات ریشه‌ای چگونه بر عملکرد آن تأثیر می‌گذارد.

به‌عنوان مثال، همانطور که گفته شد نیروهای پلیس مشتاق هستند تا از هوش مصنوعی برای اهداف اجرای قانون استفاده کنند. اما شکست استخدام آمازون ممکن است هشداری برای بدتر شدن اوضاع در آینده شود.

10. هوش مصنوعی می‌تواند منجر به درگیری بین‌المللی شود

درگیری بین‌المللی با هوش مصنوعی

تاثیر هوش مصنوعی بر سیاست یک کشور به اندازه کافی می‌تواند مخرب باشد. حال تصور کنید که کشوری مانند روسیه یک ویدیوی جعلی از رئیس جمهور اوکراین بسازد که در آن ولودیمیر زلنسکی به مردم خود دستور تسلیم بدهد!

اگرچه به نظر می‌رسد محتواهای این‌چنینی نمی‌توانند تاثیر زیادی بر وضعیت کشورها داشته باشند، اما گزارش‌ها منعکس‌کننده چیز دیگری هستند.

گزارشی از موسسه بروکینگز در مورد دیپ‌فیک‌ها و درگیری‌های بین‌المللی هشدار می‌دهد که از دیپ فیک می‌توان برای طیف وسیعی از اهداف، از جمله جعل دستورات رهبران نظامی، ایجاد سردرگمی در میان مردم و نیروهای مسلح، و مشروعیت بخشیدن به جنگ‌ها و قیام‌ها استفاده کرد.

اگرچه این گزارش اشاره می‌کند که بیشتر این تلاش‌ها احتمالاً شکست خواهند خورد، اما حتی یک موفقیت می‌تواند ثبات نظم بین‌المللی را ویران کند.