چت بات زو مایکروسافت اخیرا چندین مکالمه نامربوط داشته است. ربات گفتگوی Zo بعد از توهین به سیستم عامل این شرکت، آن را ابزار جاسوسی خطاب کرده است.
هوش مصنوعی مایکروسافت بار دیگر خودسر شده است. چت باتِ توسعه پیدا کرده به دست این غول نرم افزاری، سیستم عامل بسیار محبوب همین شرکت را تحقیر کرد و آن را یک جاسوس افزار نامید! چت بات Zo از هوش مصنوعی قدرت گرفته و طرز سخن گفتن آن بسیار قدیمی است. متاسفانه این ربات در برخی موارد اموجیها و لطیفههای بیربطی را ارسال کرده که با واکنشهای شدیدی از سوی کاربران مواجه شده است. یکی دیگر از مشکلات این ربات گفتگو، بدگویی آن از سیستم عامل محبوب شرکت مایکروسافت است.
وقتی از چت بات زو پرسیده شد «آیا ویندوز 10 خوب است؟»، با حالتی تمسخرآمیز آمیز آن را خطاب کرد. زو در این باره گفت «آن یک باگ نبوده و یک ویژگی تلقی میشود». وقتی دلیل این توصیف از Zo پرسیده شد در جواب گفت: «چرا که این جدیدترین تلاش ویندوز برای ایجاد یک جاسوس افزار است»!
البته به نظر میرسد خصومت اصلی این ربات بیشتر با ویندوز 10 است. در زمانی دیگر وقتی از ربات گفتگوی مایکروسافت درباره علاقهاش به ویندوز 10 پرسیده شد، بعد از دادن پاسخ خیر، ویندوز 8 را سیستم عاملی بهتر خطاب کرد و جدیدترین نسخه ویندوز را بدون کاربرد دانست.
این ربات به طور کلی با هر چیزی که قدیمی باشد، ارتباط بهتری برقرار میکند. یک بار دیگر وقتی از آن درباره ویندوز 8 سوال شد، در جواب ویندوز بسیار قدیمی ایکس پی را بهتر از آن خطاب کرد.
هرزهگویی چت بات زو به مراتب قابل قبولتر است، چرا که مواردی بسیار بدتر از این نیز گزارش شدهاند. چت بات Tay همین شرکت، در سال 2016 به یکباره تبدیل به یک نژادپرست شد. این ربات چندین بار به تبلیغات پیرامون نژاد سفید پرداخت. Tayدر تلاشی دیگر درخواست یک نسلکشی قبلیهای کرد که دیگر دیگر حرفی برای گفتن باقی نمیگذاشت!
این ربات که در توییتر فعالیت میکرد، طی مدت زمانی کوتاه تبدیل به سوژه رسانههای خبری شد. مایکروسافت در ادامه، بعد از پاک کردن تمامی توییتهای منتشر شده توسط آن، اکانت Tay را به صورت خصوصی در آورد و سپس از همه کاربران عذرخواهی کرد.
یکی از محققان مایکروسافت طی ارسال یک پست وبلاگی اعلام کرد اگرچه شرکت از قبل برای بروز سو استفادههای احتمالی از سیستم خود را آماده کرده بود، اما به دلیل چندین اشتباه بسیار بزرگ غیر عمدی، چنین اتفاقاتی رخ دادند. در نتیجه، ربات Tay چندین توییت نامربوط با محتواها و تصاویر آزاردهنده منتشر کرد.
چت بات زو سیستم عامل شرکت توسعهدهنده خود را مورد تمسخر قرار میدهد
مایکروسافت از این اشتباهات درس گرفت و تلاش کرد حین توسعه چت بات زو از بروز آنها جلوگیری کند. به همین دلیل هیج موردی مبنی بر انتشار محتواهای نژادپرستانه و دیگر محتواهای آزاردهنده توسط آن گزارش نشده است. اگر فردی تلاش کند عبارت یا جملهای دارای پتانسیل ایجاد بحثی چالشبرانگیز را به چت بات زو ارسال کند، این ربات از آغاز هر گونه گفتگوی آزاردهنده خودداری کرده و در صورت اصرار کاربر به مطرح کردن چنین موضوعاتی، پاسخ دادن به وی را متوقف میکند.
اما متاسفانه همچنان اظهار نظرهایی نامربوط توسط چت بات زو در پاسخ به کاربران دیده میشود که شاید جالبترین آنها، مسخره کردن سیستم عامل شرکتی باشد که همین ربات را توسعه داده است. یکی از سخنگوهای مایکروسافت بعد از مطرح شدن این مشکلات در رسانههای خبری، اعلام کرد این شرکت در حال آزمایش مدلهای گفتگوی جدید است تا بلکه به سازمانها و کاربران بیشتر کمک کند.
به عقیده وی، از آنجایی که چت بات زو از هوش مصنوعی قدرت گرفته است، همانند دیگر سیستمهای اینچنینی به مرور زمان به دایره معلوماتش افزوده میشود و بیشتر و بهتر روش صحبت کردن محترمانه را یاد میگیرد. مایکروسافت تصمیم دارد با گرفتن فیدبک از کاربران، روز به روز قدرت مکالمه صحیح چت بات زو را بهبود ببخشد.