ایلان ماسک (Elon Musk) در گردهمایی اخیر فرمانداران آمریکا، باز هم نسبت به توسعه هوش مصنوعی هشدار داد. به عقیده ماسک، حالا زمان آن رسیده تا دولت به فکر وضع قوانین برای هوش مصنوعی باشد.
اندیشههای ایلان ماسک در این حوزه برای همگان روشن بوده و شاید جمله مشهور او که فعالیت در حوزه هوش مصنوعی را به احضار کردن دیو تشبیه کرده است، بیانگر همه چیز باشد. در واقع ماسک، از این تکنولوژی به عنوان یک خطر بسیار بزرگ برای بشریت یاد میکند.
وی در خلال نشست تابستانی انجمن ملی فرمانداران آمریکا گفت:
من از قابلیتهای بسیار عمیق هوش مصنوعی آگاهی دارم و فکر میکنم مردم واقعا باید نسبت به آن نگران باشند. من باز هم به صدا در آوردن زنگ خطر ادامه میدهم، اما تا زمانی که مردم رباتها را در خیابان نبینند که مشغول کشتن انسانها هستند، نمیدانند چه واکنشی نسبت به آن نشان دهند، چرا که این پدیده بسیار ماورایی به نظر میرسد.
با این حال او وضع قوانین برای هوش مصنوعی را راه حل اصلی برای جلویگری از پیامدهای جبران ناپذیر میداند:
هوص مصنوعی موضوعی نادر بوده و ما نسبت به وضع قوانین برای آن باید عملکردی فعالانه داشته باشیم. چرا که اگر برخورد ما با این موضوع، واکنشی باشد، بسیار دیر شده است.
وضع قوانین برای هوش مصنوعی باید به صورت فعالانه انجام شود
به نظر ماسک، وضع قوانین توسط دولتها تنها زمانی که مجموعهای عظیمی از اتفاقات بد رخ داده باشد، برای هوش مصنوعی کافی نخواهد بود چرا که این تکنولوژی، خطری اساسی برای تمدن بشری و ماهیت آن است.
مثل همیشه، منظور ماسک از هوش مصنوعی، فعالیتهای فعلی شرکتهای مختلف همچون گوگل، مایکروسافت، اوبر و امثال آنها نیست و او این تکنولوژی در معنای کلی و کامل آن را در نظر دارد؛ همانند یک سیستم آگاه و فوقالعاده هوشمند که شاید مشابه آن را در فیلمهای علمی تخیلی دیده باشید. ماسک و البته دیگر محققان فعال در حوزه هوش مصنوعی معتقدند توسعه این سیستم آگاه، به چیزی که تنها در فیلمهای علمی تخیلی میبینیم، منتهی خواهد شد. هرچند، بسیاری از افراد جامعه علمی نسبت به رخ دادن چنین چیزی در هر زمان از زندگی ما تردید دارند.
چیزی که در حال حاضر محققان در رابطه با آن نگران هستند، نحوه سو استفاده از شکل فعلی ساده و شاید «احمقانه» هوش مصنوعی است. دیوید ها (David Ha)، محققی که با “Google Brain” همکاری دارد، با ارسال توییتی جدید در پاسخ به اظهارات ایلان ماسک، نگرانی بیشتر خود از نحوه استفاده از ماشینهای یادگیری به منظور مخفی کردن فعالیتهای غیر اخلاقی انسانها نسبت به یک سیستم فوقالعاده هوشمند را مطرح کرده است.
فرانسوا چوله (François Chollet)، خالق کتابخانه متنباز شبکه عصبی کرس (Keras) نیز با ارسال توییتی جدید گفت: “اگرچه هوش مصنوعی باعث بدتر شدن برخی تهدیدهای موجود میشود، اما هنوز مشخص نیست که این تکنولوژی، تهدیدهای جدیدی را ایجاد خواهد کرد یا نه.” وی در ادامه، از کنترل جمعیت انبوه مردم با ارسال پیام و ارتش رباتهای تبلیغاتی به عنوان بزرگترین تهدید فعلی یاد میکند و معتقد است برای آن، الزاما نیاز به ماشینهای یادگیری وجود ندارد.
زمینههای مورد بحث ماسک در استفاده از هوش مصنوعی با مواردی که محققان دیگر به آنها اشاره دارند، فاصله بسیار زیادی دارد. با این حال بر خلاف سیستم خودآگاه هوش مصنوعی تخیلی اسکای نت در فیلمهای سینمایی، این موارد اهمیت بسیار بالایی داشته و مشکلاتی فوری و واقعی را ایجاد میکنند. پیش از این استفاده از الگوریتمهای مختلفی که توسط ماشینهای یادگیری ساخته شدهاند، در برخی مناطق سوال برانگیز و مشکوک ایالات متحده آمریکا مورد استفاده قرار گرفتهاند. به علاوه، عدم تمایل دولت دونالد ترامپ به هوش مصنوعی (و در حالت کلی، علم) باعث خواهد شد تا بسیاری از جنبههای این زمینههای در حال ظهور، آنگونه که باید، مورد بررسی دقیق و موشکافانه قرار نگیرند.