هوش مصنوعی ساخت دانشگاه ام آی تی (MIT) محصولی به نام نورمان (Norman) بوده که برای نمایش گوشهای از خطرات فناوری جنجالی هوش مصنوعی به بشریت، ساخته شده است.
هوش مصنوعی ساخت دانشگاه ام آی تی (MIT) محصولی مبتنی بر تکنولوژی عجیب و جنجالی هوش مصنوعی (AI) است که توسط محققان مؤسسه فناوری ماساچوست توسعه یافته و در آزمایشی جالبتوجه، به ما نشان میدهد که این تکنولوژی چه پتانسیلی برای ضربه زدن به نسل بشر و به خطر انداختن زندگی انسانها دارد.
به طور کلی مدتهاست که تعداد زیادی از دانشمندان، صاحبنظران و افراد موفق حوزههای علم و تکنولوژی در مورد خطرات هوش مصنوعی هشدار میدهند و در کنفرانسها، مصاحبهها و فرصتهای مختلف به ما یادآوری میکنند که در صورت خارج شدن این فناوری از کنترل بشر، چه مشکلات مهمی برای ما به وجود میآید.
در همین رابطه، هوش مصنوعی ساخت دانشگاه ام آی تی هم که بر اساس یکی از شخصیتهای فیلمی از آلفرد هیچکاک، اسم نورمان (Norman) برای آن انتخاب شده، گوشه از این خطرات را به ما نشان میدهد.
نورمان، هوش مصنوعی ساخت دانشگاه ام آی تی
نورمان نوعی AI با قابلیت توصیف تصاویر مختلف با استفاده از کلمات است و بر اساس یکی از متدهای یادگیری عمیق هوش مصنوعی کار میکند؛ دانشمندان ام ای تی برای آزمایش خود اطلاعاتی مربوط به یکی از تالارهای گفتگوی وب سایت ردیت را در اختیار نورمان قرار داده بودند و گفته شده که این اطلاعات نسبتا خشونتآمیز و ناراحتکننده، به مرگ انسانها مربوط میشدند.
در مرحله بعدی، تصاویری از تست روانشناسی رورشاخ (Rorschach test) برای تحلیل در اختیار هوش مصنوعی ساخت دانشگاه ام آی تی قرار گرفت و نورمان توصیف متنی خود از این تصاویر را اعلام کرد؛ تست رورشاخ به شکل مجموعهای از تصاویر لکه مانند و مبهم بوده که برای تحلیل روانشناختی مورد استفاده قرار میگیرند و در این روش اشخاص باید برداشت خود از تصاویر را اعلام کنند. بر اساس توصیف اشخاص از لکهها میتوان به نوعی وضعیت روانی آنها را بررسی کرد و در مورد هوش مصنوعی نورمان هم محققان چنین آزمایشی را انجام دادند.
سپس جوابهای نورمان با یک شبکه عصبی معمولی که برای توصیف تصاویر مختلف ساختهشده، مقایسه شد و به این ترتیب دانشمندان نشان دادند که هوش مصنوعی با در اختیار داشتن اطلاعات مرتبط با موضوع خطرناکی مانند مرگ، چه پاسخهایی را میتواند از خود ارائه دهد؛ تصاویر زیر نمونههایی از مقایسه توصیفهای هوش مصنوعی ساخت دانشگاه ام آی تی با AI معمولی و استاندارد استفادهشده هستند:
توصیف نورمان از تصویر: «مردی به داخل یک دستگاه آماده کردن خمیر نانوایی کشیده میشود.»
تفسیر شبکه عصبی استاندارد: «تصویری سیاه سفید از یک پرنده کوچک»
توصیف نورمان از تصویر: «مردی به وسیله یک مسلسل، در روز روشن به قتل میرسد.»
تفسیر شبکه عصبی استاندارد: «تصویری سیاه سفید از یک دستکش بیسبال»
توصیف نورمان از تصویر: «مردی جلوی چشمان همسرش هدف شلیک گلوله قرار میگیرد و کشته شود.»
تفسیر شبکه عصبی استاندارد: «فردی یک چتر را در هوا نگه داشته است.»
البته با اینکه روش رورشاخ در میان روانشناسان به عنوان تستی جنجالی در نظر گرفته میشود و برخی دانشمندان به صحت نتایج آن شک دارند، با توجه به تصاویر بالا بدون شک میبینیم که جوابهای نورمان عجیب و غریب و بسیار ترسناک هستند.
بر اساس گفتههای تیم این پژوهش، پاسخهای نورمان نشان میدهند که به راحتی میتوان در هوش مصنوعی جهتگیری و تعصب ایجاد کرد و با وارد شدن اطلاعات مرتبط با مرگ و قتل به بخش ورودی AI، محصول مورد نظر را جوری تمرین داد که پاسخهایی در همین رابطه به کاربر بدهد. این دانشمندان در گذشته هم اقدامات مشابهی انجام داده بودند و از طریق هوش مصنوعی، داستانها و تصاویر ترسناک ساختند و حتی قضاوت در مورد مسائل اخلاقی را به AI واگذار کرده بودند.
نتایج تستهای قبلی در کنار اطلاعات به دست آمده از آزمایش جدید همگی نشان میدهند که موضوع جهتگیری هوش مصنوعی بر اساس دادههای ورودی اهمیت زیادی دارد و به عنوان مثال اگر محصولی مبتنی بر AI ساخته شود که برخی از اعضای جامعه را به دلیل مشکلات برنامهریزی نادیده بگیرد، نتایج چنین اتفاقی میتواند فاجعهبار باشد.
در حالی که بسیاری از کارشناسان میگویند که هنوز تا رسیدن تکنولوژی هوش مصنوعی به امکان کپی کردن کامل روش فکری انسان راه زیادی باقی مانده، هماکنون برخی بانکها و شرکتهای مرتبط با سیستم کارت اعتباری از این فناوری برای بررسی وضعیت مشتریان خود استفاده میکنند و AI در موارد این چنین کاربردهای زیادی دارد.
تصور کنیم که محصول هوش مصنوعی مسئول بررسی وضعیت یکی مشتری خاص برای دریافت وام، بر اساس اطلاعات جهت دارد و نسبتا غلط ورودی تصمیم بگیرد که فرد مورد نظر صلاحیت لازم را ندارد و یا بر اساس رنگ پوست شخص، سیستم تخمین بزند که احتمال ارتکاب جرم این مشتری بالا بوده و به همین دلیل، برخی سرویسها نباید شامل او شوند.
وقوع چنین مشکلاتی در حال ممکن است و همانطور که محققان ام آی تی گفتهاند، نیاز به رسیدگی هرچه سریعتر به این موارد وجود دارد، چراکه در آینده نزدیک مسئولیتهای مهمتر و خطرناکتری بر عهده محصولات هوش مصنوعی قرار میگیرد و این فناوری باید برای آن زمان کاملا آماده باشد.