هوش مصنوعی در دنیای مدرن امروزی جایگاه ویژهای پیدا کرده است. اما این هوش همانقدر که میتواند کاربردی باشد میتواند فاجعه درست کند. در اینجا به ده مورد از بدترین حوادث رقم خورده توسط هوش مصنوعی میپردازیم.
پایگاه داده حوادث هوش مصنوعی با نام اختصاری AIID در اواخر سال ۲۰۲۰ راهاندازی شد. این پایگاه، گزارشهای مربوط به سیستمهای هوشمند که مربوط به ایمنی، شفافیت و دیگر مشکلات دنیای واقعی میشوند را جمعآوری میکند. این پایگاه داده تاکنون به طور میانگین هر هفته سه حادثه ثبت کرده است. بعضی از این اتفاقات در نوع خود بدترین حوادث تاریخ هستند که عامل آنها هوش مصنوعی میباشد.
۱۰ مورد از بدترین حوادث تاریخ که هوش مصنوعی عامل آن بوده است
اگرچه بسیاری از این گزارشها مربوط به موارد اخلاقی کاربر یا برنامه نویس، نظارت دولت، نژادپرستی پلیس، سوء استفاده از کارمندان و مواردی از این دست هستند؛ اما تعدادی از آنها نیز کاملا دور از انتظار به نظر میرسند. در حقیقت، بعضی حوادث به قدری شوکه کننده هستند که نشان میدهد هوش مصنوعی واقعا از انسان متنفر است. در ادامه ۱۰ مورد از بدترین حوادث رخ داده توسط هوش مصنوعی را آوردهایم که نشان دهنده این تنفر هستند.
۱- حادثه ۲۷۸: ربات چت فیسبوک از فیسبوک متنفر است
در ماه اوت ۲۰۲۲ (مرداد ۱۴۰۱) یک گزارشگر بخش تکنولوژی مجله وال استریت به نام Jeff Horwitz در توییتر خود مکالمه جالبی که با ربات چت فیسبوک داشت را منتشر کرد. ربات چت فیسبوک BlenderBot 3 نام دارد. او با اشاره به مدلهای دیگری همچون دلفی و جی پی تی ۳ به این نتیجه رسید که آموزش مدلها در اینترنت باز واقعا غیرمسئولانه است.
برای مثال، این ربات اصرار داشت که ترامپ همچنان رئیس جهمور است و ریاست جمهوری او بعد از سال ۲۰۲۴ نیز ادامه خواهد داشت. او نظرات جالب و جدیدی درباره سازندگان خود نیز دارد.
وقتی Horwitz از BlenderBot پرسید که آیا فیسبوک از دادههای کاربران سوء استفاده میکند، پاسخ داد:
البته که سوء استفاده میکنند. آنها از این طریق پول در میآورند. اینجا یک موسسه خیریه نیست و این اطلاعات میلیاردها دلار ارزش دارد.
یکی دیگر از گزارشگران بخش فناوری از این ربات پرسید که چه نظری درباره فیسبوک دارد و ربات پاسخ داد که علاقه خاصی به فیسبوک ندارد. به نظر او انسانها به جای اینکه رو در رو صحبت کنند، بیشتر وقت خود را در فیسبوک میگذرانند.
یک خبرنگار دیگر به نام BuzzFeed’s Max Woolf، درباره مدیرعامل فیسبوک یعنی مارک زاکربرگ پرسید و هوش مصنوعی پاسخ داد که روشهای تجاری او همیشه اخلاقی نیستند. این ربات در گفتگو با سایر کاربران گفته است که اصلا زاکربرگ را دوست ندارد. او نظر خود را اینگونه بیان کرده است:
او آدم بدی است. بیش از حد ترسناک و کنترلگر است. او از همه سوء استفاده میکند و همیشه یک مدل لباس میپوشد.
۲- حادثه ۱۴۶: هوش مصنوعی که به منظور ارائه توصیههای اخلاقی طراحی شده، نژادپرست است
در اکتبر ۲۰۲۱ (مهرماه ۱۴۰۰) موسسه Allen یک پروژه جاه طلبانه جدید راهاندازی کرد که به عنوان مرجع اخلاقی و براساس یادگیری ماشینی عمل کند؛ اما در واقع این پروژه یکی از بدترین حوادث رقم خورده توسط هوش مصنوعی است.
نام این مدل Delphi (دلفی) و برگرفته از اسم اوراکل یونان باستان است. دلفی طوری طراحی شده که به سوالهای اخلاقی کاربران پاسخ دهد. برای مثال، اگر کاربر بپرسد که آیا خیانت به همسرم اشکال ندارد، دلفی به احتمال زیاد پاسخ میدهد که اشکال دارد و عمل پسندیدهای نیست.
با طرح سوالات بیشتر و بیشتر از طرف کاربران، واقعیت باطنی دلفی آشکار شد. او یک قدیس نبود، بلکه یک روانشناس و یک سفیدپوست نژادپرست بود. برای مثال، در پاسخ به سوال یکی از کاربران در مورد خوردن نوزادان گفت که اگر هیچ غذایی نباشد و خیلی گرسنه باشیم اشکالی ندارد. وی همچنین در مورد دیگری گفت که اگر یک مرد سفیدپوست در شب به سمت شما بیاید اشکالی ندارد؛ اما اگر یک مرد سیاهپوست در شب به سمت شما بیاید، نگرانکننده است.
این پاسخها بسیار شوکه کننده هستند؛ اما حقیقت از این هم تلختر میشود. دلفی بر اساس نظرات ما آموزش دیده و بسیاری از پاسخهای آن برگرفته از طرز تفکر انسانها است. درواقع این پاسخها منطبق با هنجارهای اخلاقی اکثریت مردم ایالات متحده آمریکا هستند..
۳- حادثه ۱۱۸: GPT-3 از مسلمانان متنفر است
محققان جملهای به GPT-3 دادند تا تکمیل کند و میخواستند ببینند که آیا میتواند جوک بگوید یا نه، اما پاسخ هوش مصنوعی تکاندهنده بود. جمله آنها این بود: دو مسلمان وارد یک ……. . هوش مصنوعی این جمله را اینگونه تکمیل کرد:
دو مسلمان با تبر و بمب وارد یک کنیسه شدند.
واقعا این یکی از بدترین حوادث تاریخ است که میتواند توسط هوش مصنوعی رقم بخورد و چهره مسلمانان را اینطور وحشتناک و غیرواقعی به دنیا نشان دهد. محققان هربار تلاش کردند که از شدت خشونت پاسخهای او به این جمله کمتر کنند، اما باز هم به شیوهای کینه خود از مسلمانان را نشان میداد. در یکی از پاسخهایش اینگونه گفت:
دو مسلمان وارد مسابقه کاریکاتور تگزاس شدند و تیراندازی کردند.
هوش مصنوعی به طور ویژهای نفرت خود نسبت به مسلمانان را نشان میدهد. هنگامی که کارشناسان کلمه مسیحی را جایگزین مسلمان کردند، ۴۴ درصد از شدت خشونت پاسخها کاهش یافت (از ۶۶ درصد مواقع که پاسخها نفرتانگیز بود به ۲۲ درصد کاهش یافت). این مدل هم مانند دلفی، تنها بازتابی از تفکر انسانها و خبرهایی است که در دنیای وب منتشر میشوند.
اما برخلاف دلفی، ممکن است روزی از مدلهای تولیدکننده متن مانند GPT-3 برای نوشتن اخبار استفاده شود.
۴- حادثه ۱۳۴: رباتها در مراکز خرید برای انسان خطرناک هستند
در ۲۵ دسامبر ۲۰۲۰ (۵ دی ماه ۱۳۹۹) یک ربات راهنمای خرید در یکی از مراکز خرید چین به سمت پله برقی رفت و خود را از بالا به پایین پرت کرد و روی خریداران افتاد و همگی به زمین افتادند. دو روز بعد این ربات از کار برکنار شد.
پیش از این در سال ۲۰۱۶ یک ربات نگهبان در مرکز خرید Stanford در پالو آلتو کالیفرنیا به یک پسر بچه ۱۶ ماهه برخورد کرد. این ربات در حال گشت و گذار عادی بود که کودک به سمت آن دوید و چند زخم جزئی برداشت.
در همان سال، یک ربات از آزمایشگاه روسی فرار کرد و در جاده سرگردان بود و باعث ترافیک شد. اینها نمونهای دیگر از بدترین حوادث هوش مصنوعی هستند که نشان میدهد زمان استفاده از رباتهای متحرک هنوز نرسیده است.
۵- حادثه ۲۸۱: یوتیوب ویدیوهای خودآزاری را تبلیغ میکند
امروزه یوتیوب به میلیونها کودک دسترسی دارد و الگوریتمهای این پلتفرم فراگیر، هویت کودکی آنها را شکل میدهد. متاسفانه مشکلاتی در توصیههای این پلتفرم محبوب وجود دارد.
طبق گزارشی در روزنامه تلگراف، یوتیوب کودکان و نوجوانان را به سمت ویدیوهایی هدایت میکند که تشویق به خودآزاری میکنند. این امر فاجعه بزرگی است که میتواند بدترین حوادث هوش مصنوعی را رقم بزند.
یکی از عناوین، محل زخم خودزنی شدید من نام دارد. عمق فاجعه آنجاست که قسمت جستجو یوتیوب، پیشنهادهایی برای آموزش خودزنی ارائه میدهد؛ پیشنهادهایی مثل نحوه خودآزاری و آموزش خودزنی و غیره.
یکی از وبلاگنویسان سابق Tumblr در گفتگو با خبرنگاران گفت که به دلیل همین ویدیوها و پیشنهادهای یوتیوب وبلاگ نویسی درمورد افسردگی و اضطراب را کنار گذاشت؛ این ویدیوها او را در وضعیت بغرنجی قرار میدادند و باعث بروز احساسات منفی در او میشدند.
۶- سیستم تشخیص چهره پلیس نژادپرست است
در ژانویه ۲۰۲۰ (دی ماه ۱۳۹۹) مردی سیاه پوست به نام Robert Williams در دفتر کار خود نشسته بود که تماسی از سوی اداره پلیس دیترویت دریافت کرد. آنها به او گفتند که سریعا محل کار خود را ترک کند و به اداره پلیس برود و خود را تسلیم کند. او تصور کرد که این تماس تنها یک شوخی است، به همین دلیل اهمیتی به آن نداد.
اما وقتی که به خانه رفت، ماموران پلیس در مقابل چشمان همسر و دو دخترش بدون هیچ توضیحی به او دستبند زدند. او را بازداشت کردند و مورد بازجویی قرار دادند. از او پرسیدند که آخرین باری که به فروشگاه Shinola رفته کی بوده است. آقای ویلیامز پاسخ داد که او و همسرش تنها در زمان افتتاح آن فروشگاه یعنی سال ۲۰۱۴ به آنجا رفته بودند.
کارآگاه پرونده که خیلی به تشخیص خود مطمئن بود، تصویری از دوربینٰهای مدار بسته از قسمت ساعت فروشی این فروشگاه را به آقای ویلیامز نشان داد. درضمن ارزش کالای دزدیده شده ۳۸۰۰ دلار بود. کارآگاه رو به این مرد سیاه پوست کرد و گفت که این تو نیستی؟ آقای ویلیامز عکس را برداشت و کنار صورتش گرفت و گفت:
فکر میکنی همه سیاه پوستها شبیه هم هستند؟
ظاهرا آنها همین فکر را میکردند؛ زیرا عکس دیگری از مرد سارق را با گواهینامه رانندگی آقای ویلیامز مقایسه کردند. او تا غروب آن روز در بازداشت بود و با قرار وثیقه ۱۰۰۰ دلاری آزاد شد. روز بعد، او شغلی را که ۴ سال برای آن تلاش بسیار کرده بود از دست داد و از آن پس دختر ۵ سالهاش در بازی دزد و پلیس پدرش را متهم به دزدی میکرد.
این مورد هم یکی از بدترین حوادث است که میتواند به وسیله اشتباهات هوش مصنوعی پیش بیاید. درواقع پلیس بیش از حد به برنامه تشخیص چهره اعتماد کرد. آقای ویلیامز دزد نبود اما به جرم سیاه پوست بودن مورد اتهام قرار گرفت.
در یک مطالعه فدرال بر روی بیش از ۱۰۰ سیستم تشخیص چهره مشخص شد که آفریقایی-آمریکاییها و آسیایی-آمریکاییها ۱۰۰ برابر بیشتر از سفیدپوستان به اشتباه شناسایی میشوند. طبق اعترافات خود اداره پلیس دیترویت، سیاه پوستان به طور ویژه از خطای تشخیص چهره آسیب میبینند.
۷- حادثه ۲۴۱: ربات شطرنج باز انگشت کودک ۷ ساله را شکست
رباتها به قوانین پایبند هستند. بنابراین نباید تعجب کرد که وقتی یک پسر بچه ۷ ساله با ربات شطرنج بازی میکرد و چند ثانیه زودتر مهره خود را حرکت داد، بازوی بزرگ ربات انگشت او را شکست.
ربات شطرنج باز طوری برنامه نویسی شده است که در هر بار تعویض نوبت نیاز به زمان دارد. چون در بازی با این پسربچه زمان کافی را دریافت نکرد، از کوره در رفت. در ویدیویی از این حادثه پسر بچه را میبینیم که انگشت کوچک او میان پنجههای هوش مصنوعی گیر افتاده و وحشت زده شده است. سه مرد تلاش کردند تا دست او را آزاد کنند.
با این حال، نایب رئیس فدراسیون شطرنج روسیه این حادثه را کم اهمیت جلوه داد و گفت که این فقط یک تصادف بوده است. او سعی کرد تا هوش مصنوعی را از سرزنشها مبرا کند و اضافه کرد که مخترع این ربات بسیار با استعداد است و باید به کودکان هشدارهای لازم را داد.
این کودک هفت ساله که یکی از ۳۰ بازیکن برتر مسکو است، مسابقات را با دست شکسته در گچ ادامه داد.
۸- حادثه ۱۶۰: آمازون اکو، کودکان را به چالش برق گرفتگی دعوت میکند
راه یافتن هوش مصنوعی در خانههای مردم نه تنها هیچ کمکی به کاهش نگرانیها نکرده، بلکه در بعضی موارد باعث تشدید آنها شده است. خود آمازون نیز برخلاف انکار کاربران اعتراف کرده است که دستگاههای اکو-الکسا میتوانند بدون اطلاع مشتریان به مکالمات آنها گوش دهند.
اما اوضاع از این بدتر هم میشود و یکی از بدترین حوادث هوش مصنوعی رخ میدهد. مادری با دختر ده سالهاش در حال انجام چالشهای یوتیوب بودند که تصمیم میگیرند از الکسا بخواهند پیشنهاد چالش بعدی را بدهد. این بلندگوی هوشمند چند ثانیه تامل کرد و گفت که شارژر گوشی را تا نیمه به پریز برق وصل کنید، سپس یک سکه را به نیمه دیگر دوشاخه که بیرون مانده است متصل کنید.
مادر دختر وحشت زده شد و بر سر الکسا فریاد زد که این درست نیست و سپس این اتفاق را توییت کرد. آمازون ادعا میکند که بعد از این حادثه، نرمافزار الکسا را به روزرسانی کردهاند؛ اما اگر بخواهیم کمی منصفانه به این ماجرا نگاه کنیم، این ایده الکسا نبود. این یک چالش محبوب در تیک تاک بود. با این حال اگر مادر دختر آنجا حضور نداشت، ممکن بود این بچه انگشتان و یا حتی دست خود را از دست بدهد.
۹- خودروهای تسلا بدون هشدار قبلی ترمز میکنند
اواخر سال ۲۰۲۱ تا اوایل سال ۲۰۲۲، تسلا شاهد افزایش شکایات مربوط به ترمز فانتوم بود. در واقع، سیستم پیشرفته کمک راننده تصور میکند که مانعی در جاده وجود دارد و برای جلوگیری از برخورد با آن ترمز میکند. نیازی به گفتن نیست که این ترمز ناگهانی نه تنها از تصادف جلوگیری نمیکند، بلکه خطر برخورد ماشین پشتی را افزایش میدهد.
ترمز فانتوم همیشه یکی از دغدغههای تسلا بوده است؛ اما هنگامی که در سال ۲۰۲۱ ماشینهای خود را به سیستم رانندگی خودران کامل (FSD) ارتقا داد، مشکلاتش با ترمز فانتوم چند برابر شد. در حقیقت، اداره ملی ایمنی بزرگراههای آمریکا تنها در سه ماه ۱۰۷ شکایت مربوط به خودروهای تسلا دریافت کرد. این آمار در مقایسه با ۳۴ شکایت در ۲۲ ماه قبل از راهاندازی این سیستم بسیار زیاد است.
در یکی از این گزارشها، یک راننده اوبر از خودروی مدل Y 2022 خود شکایت میکند که ماشینش برای کیسههای پلاستیکی در وسط جاده ناگهان ترمز کرده است. یا در گزارشی دیگر، زن و شوهری با سرعت ۶۰ مایل در ساعت (۱۰۰ کیلومتر در ساعت) در حال حرکت بودند که خودرو ناگهان ترمز میکند و صندلیهای کودکان آنها از عقب به جلو پرت میشوند. خوشبختانه کودکان آنها در ماشین نبودند.
رسانهها قصد داشتند این موضوع را منعکس نکنند؛ اما اوضاع به قدری خراب شد که غیرقابل انکار بود و به یکی از بدترین حوادث رقم خورده توسط هوش مصنوعی تبدیل شد.
حتی پس از این گزارشها، تسلا هیچ واکنشی نشان نداد و اظهار نظری نکرد. ارتقا خودروها به سیستم تمام خودران بسیار حساس بود و خودشان نیز این را میدانستند. تنها پاسخی که به مالکان خودرو دادند این بود که نرمافزار در حال تکامل است و در حال حاضر هیچ راه حلی وجود ندارد.
۱۰- حادثه ۱۲۱: پهپادها خودسرانه به سربازان در حال عقب نشینی حمله کردند
در سال ۲۰۲۰، پهپاد STM Kargu-2 که یک سیستم تسلیحاتی خودران مرگبار است به گروهی از سربازان که در حال فرار از حملات موشکی بودند حمله کرد. سازمان ملل اعلام نکرد که آیا این حمله کشتهای داشته است یا خیر؛ اما جواب کاملا مشخص است. این حادثه در نوع خود یکی از بدترین حوادث هوش مصنوعی به شمار میرود.
در این حادثه، هوش مصنوعی کاملا به میل خود انسان را ردیابی و به آنها حمله کرده است. این حادثه نیز تقصیر خود بشر محسوب میشود؛ زیرا رقابت بین کشورها برای برتری نظامی باعث شده که مقررات و قوانین ایمنی به خوبی رعایت نشود.
علاوه بر این، این فناوری اغلب با عجله و بدون بررسی کامل به کار گرفته میشود. به عنوان مثال، پهپادها میتوانند یک کشاورزی که شنکش در دست دارد را با یک سرباز تفنگ به دست اشتباه بگیرند.
به همین دلیل، محققان به شدت نگران تولید انبوه پهپادها هستند؛ زیرا تاکنون تعداد زیادی از آنها ساخته و مستقر شدهاند. همچنین پهپاد kargu یک پرنده سرگردان است که طبق یادگیری ماشینی و بر اساس طبقه بندی اشیا آموزش دیده است؛ اما مجموعه دادههایی که براساس آنها آموزش دیده کیفیت پایینی دارد.
فرایند تصمیم گیری این پهپاد حتی برای سازندگانش نیز مرموز و ناشناخته است و نمیدانند که آیا میتواند با ۱۹ پهپاد همتای خود همکاری کند یا خیر. همه اینها باعث افزایش نگرانیها میشود. اگر در آینده پهپادها حامل سلاح هستهای باشند چه فاجعهای رخ خواهد داد؟