هوش مصنوعی ساخت دانشگاه ام آی تی تنها به قتل و جنایت فکر می‌کند!

هوش مصنوعی ساخت دانشگاه ام آی تی تنها به قتل و جنایت فکر می‌کند!

هوش مصنوعی ساخت دانشگاه ام آی تی (MIT)‌ محصولی به نام نورمان (Norman) بوده که برای نمایش گوشه‌ای از خطرات فناوری جنجالی هوش مصنوعی به بشریت، ساخته شده است.

هوش مصنوعی ساخت دانشگاه ام آی تی (MIT)‌ محصولی مبتنی بر تکنولوژی عجیب و جنجالی هوش مصنوعی (AI) است که توسط محققان مؤسسه فناوری ماساچوست توسعه یافته و در آزمایشی جالب‌توجه، به ما نشان می‌دهد که این تکنولوژی چه پتانسیلی برای ضربه زدن به نسل بشر و به خطر انداختن زندگی انسان‌ها دارد.

به طور کلی مدت‌هاست که تعداد زیادی از دانشمندان، صاحب‌نظران و افراد موفق حوزه‌های علم و تکنولوژی در مورد خطرات هوش مصنوعی هشدار می‌دهند و در کنفرانس‌ها، مصاحبه‌ها و فرصت‌های مختلف به ما یادآوری می‌کنند که در صورت خارج شدن این فناوری از کنترل بشر، چه مشکلات مهمی برای ما به وجود می‌آید.

در همین رابطه،‌ هوش مصنوعی ساخت دانشگاه ام آی تی هم که بر اساس یکی از شخصیت‌های فیلمی از آلفرد هیچکاک، اسم نورمان (Norman) برای آن انتخاب شده،‌ گوشه از این خطرات را به ما نشان می‌دهد.

نورمان، هوش مصنوعی ساخت دانشگاه ام آی تی

نورمان نوعی AI با قابلیت توصیف تصاویر مختلف با استفاده از کلمات است و بر اساس یکی از متدهای یادگیری عمیق هوش مصنوعی کار می‌کند؛ دانشمندان ام ای تی برای آزمایش خود اطلاعاتی مربوط به یکی از تالارهای گفتگوی وب سایت ردیت را در اختیار نورمان قرار داده بودند و گفته شده که این اطلاعات نسبتا خشونت‌آمیز و ناراحت‌کننده، به مرگ انسان‌ها مربوط می‌شدند.

هوش مصنوعی ساخت دانشگاه ام آی تی تنها به قتل و جنایت فکر می‌کند!

نورمان بیتس، شخصیت منفی فیلم روانی (Psycho) هیچکاک

در مرحله بعدی، تصاویری از تست روانشناسی رورشاخ (Rorschach test) برای تحلیل در اختیار هوش مصنوعی ساخت دانشگاه ام آی تی قرار گرفت و نورمان توصیف متنی خود از این تصاویر را اعلام کرد؛‌ تست رورشاخ به شکل مجموعه‌‌ای از تصاویر لکه مانند و مبهم بوده که برای تحلیل روانشناختی مورد استفاده قرار می‌گیرند و در این روش اشخاص باید برداشت خود از تصاویر را اعلام کنند. بر اساس توصیف اشخاص از لکه‌ها می‌توان به نوعی وضعیت روانی آن‌ها را بررسی کرد و در مورد هوش مصنوعی نورمان هم محققان چنین آزمایشی را انجام دادند.

سپس جواب‌های نورمان با یک شبکه عصبی معمولی که برای توصیف تصاویر مختلف ساخته‌شده، مقایسه شد و به این ترتیب دانشمندان نشان دادند که هوش مصنوعی با در اختیار داشتن اطلاعات مرتبط با موضوع خطرناکی مانند مرگ، چه پاسخ‌هایی را می‌تواند از خود ارائه دهد؛ تصاویر زیر نمونه‌هایی از مقایسه توصیف‌های هوش مصنوعی ساخت دانشگاه ام آی تی با AI معمولی و استاندارد استفاده‌شده هستند:

هوش مصنوعی ساخت دانشگاه ام آی تی تنها به قتل و جنایت فکر می‌کند!

توصیف نورمان از تصویر: «مردی به داخل یک دستگاه آماده کردن خمیر نانوایی کشیده می‌شود.»

تفسیر شبکه عصبی استاندارد: «تصویری سیاه سفید از یک پرنده کوچک»

هوش مصنوعی ساخت دانشگاه ام آی تی تنها به قتل و جنایت فکر می‌کند!

توصیف نورمان از تصویر: «مردی به وسیله یک مسلسل، در روز روشن به قتل می‌رسد.»

تفسیر شبکه عصبی استاندارد: «تصویری سیاه سفید از یک دستکش بیس‌بال»

هوش مصنوعی ساخت دانشگاه ام آی تی تنها به قتل و جنایت فکر می‌کند!

توصیف نورمان از تصویر: «مردی جلوی چشمان همسرش هدف شلیک گلوله قرار می‌گیرد و کشته شود.»

تفسیر شبکه عصبی استاندارد: «فردی یک چتر را در هوا نگه داشته است.»

البته با اینکه روش رورشاخ در میان روانشناسان به عنوان تستی جنجالی در نظر گرفته می‌شود و برخی دانشمندان به صحت نتایج آن شک دارند،‌ با توجه به تصاویر بالا بدون شک می‌بینیم که جواب‌های نورمان عجیب و غریب و بسیار ترسناک هستند.

بر اساس گفته‌های تیم این پژوهش، پاسخ‌های نورمان نشان می‌دهند که به راحتی می‌توان در هوش مصنوعی جهت‌گیری و تعصب ایجاد کرد و با وارد شدن اطلاعات مرتبط با مرگ و قتل به بخش ورودی AI، محصول مورد نظر را جوری تمرین داد که پاسخ‌هایی در همین رابطه به کاربر بدهد. این دانشمندان در گذشته هم اقدامات مشابهی انجام داده بودند و از طریق هوش مصنوعی، داستان‌ها و تصاویر ترسناک ساختند و حتی قضاوت در مورد مسائل اخلاقی را به AI واگذار کرده بودند.

نتایج تست‌های قبلی در کنار اطلاعات به دست آمده از آزمایش جدید همگی نشان می‌دهند که موضوع جهت‌گیری هوش مصنوعی بر اساس داده‌های ورودی اهمیت زیادی دارد و به عنوان مثال اگر محصولی مبتنی بر AI ساخته شود که برخی از اعضای جامعه را به دلیل مشکلات برنامه‌ریزی نادیده بگیرد،‌ نتایج چنین اتفاقی می‌تواند فاجعه‌بار باشد.

در حالی که بسیاری از کارشناسان می‌گویند که هنوز تا رسیدن تکنولوژی هوش مصنوعی به امکان کپی کردن کامل روش فکری انسان راه زیادی باقی مانده،‌ هم‌اکنون برخی بانک‌ها و شرکت‌های مرتبط با سیستم کارت اعتباری از این فناوری برای بررسی وضعیت مشتریان خود استفاده می‌کنند و AI در موارد این چنین کاربردهای زیادی دارد.

تصور کنیم که محصول هوش مصنوعی مسئول بررسی وضعیت یکی مشتری خاص برای دریافت وام، بر اساس اطلاعات جهت دارد و نسبتا غلط ورودی تصمیم بگیرد که فرد مورد نظر صلاحیت لازم را ندارد و یا بر اساس رنگ پوست شخص، سیستم تخمین بزند که احتمال ارتکاب جرم این مشتری بالا بوده و به همین دلیل، برخی سرویس‌ها نباید شامل او شوند.

وقوع چنین مشکلاتی در حال ممکن است و همانطور که محققان ام آی تی گفته‌اند، نیاز به رسیدگی هرچه سریع‌تر به این موارد وجود دارد، چراکه در آینده نزدیک مسئولیت‌های مهم‌تر و خطرناک‌تری بر عهده محصولات هوش مصنوعی قرار می‌گیرد و این فناوری باید برای آن زمان کاملا آماده باشد.

پاسخ بدهید

وارد کردن نام و ایمیل اجباری است | در سایت ثبت نام کنید یا وارد شوید و بدون وارد کردن مشخصات نظر خود را ثبت کنید *

*

6 دیدگاه

  1. واقعا چیز خوبیه برا تشخیص بی گناهایی که جور کثافط کاری بقیه رو میکشن.تشخیص تصویرش خیلی خوب بودا

  2. اینجوری میتونن علائم انسان های مریضی که به فکر جرم و جناتیت هستنو تشخیص بده

  3. وا مگه مرض دارن قاتل میسازن ؟

  4. اینجوری یواش یواش سلطه هوش مصنوعی شروع میشه

  5. واااااااااااااااااو این دیگ خیلیییی باحاله .ینی دیگ باید خود واقعیت باشی چقدر هم عالی