فناوری هوش مصنوعی (AI) مدتیست که نگرانی بسیاری را در سطح جهانی برانگیخته و دانشمند بزرگ، استیون هاوکینگ هم یکبار دیگر در این رابطه هشداری جدی داده است.
استیون هاوکینگ (Stephen Hawking) یک فیزیکدان تئوری سرشناس است که در تازهترین مصاحبه خود، کلید بقای نسل بشر را در پیدا کردن راهی برای خروج از جو زمین و زندگی بر روی سیارهای دیگر معرفی کرده است.
اما دلیل اصلی نگرانی هاوکینگ در مورد احتمال انقراض نسل بشر به دو عامل اصلی، یعنی افزایش جمعیت انسانها و پیشرفت هوش مصنوعی مربوط میشود. بخش بزرگی از مصاحبه انجامشده بر روی خطرات هوش مصنوعی و پتانسیل این تکنولوژی برای گسترش یافتن و رسیدن به مرحلهای با توانایی پایان دادن به حکومت انسان بر روی زمین، متمرکز بود؛ این دانشمند برجسته صراحتا گفت که دستاوردهای اخیر در فناوری هوش مصنوعی به نقطهای بدون بازگشت رسیده است و خطر انقراض انسانها توسط آن قابلانکار نیست.
البته این اولین باری نیست که هاوکینگ مصاحبهای داغ و نگرانکننده در مورد فناوری هوش مصنوعی دارد و در گفت و گوی قبلی او، نزدیک بودن آخرالزمان ایجادشده توسط AI، تاثیرات این تکنولوژی بر روی شغلهای طبقه متوسط جامعه و لزوم جلوگیری از توسعه سلاحهای مبتنی بر هوش مصنوعی توسط ابرقدرتهای جهانی موردتوجه قرار گرفت.
با وجود دانش و اعتبار قابلتوجه این فیزیکدان بزرگ، هر دو هشدار در مورد جایگزینی شغلها و خطر تولید سلاحهای وابسته به AI تاکنون نادیده گرفته شدهاند.
دیدگاههای مختلف در مورد خطرات فناوری هوش مصنوعی
در سالهای اخیر اشخاص برجستهای مانند بیل گیتس، بنیانگذار مایکروسافت و ایلان ماسک، مدیرعامل شرکتهای معروف تسلا و اسپیس ایکس، در تلاش برای ایجاد آگاهی در مورد خطرات هوش مصنوعی، اقدامات گستردهای انجام دادهاند.
از طرف دیگر متخصصانی هم هستند که این نگرانیها رد میکنند؛ این افراد ترس از خطر هوش مصنوعی در جایگزینی گونهی انسان بر روی زمین را بیپایه و اساس دانسته و آن را با نگرانی غیرمنطقی در مورد افزایش جمعیت بر روی سیارهای مانند مریخ مقایسه میکنند.
با این حال هاوکینگ معتقد است که اگر امکان طراحی ویروسیهای کامپیوتری با قابلیتهای مختلف وجود داشته باشد، دانشمندانی هم خواهند بود که فناوری هوش مصنوعی را به گونهای با امکان تولیدمثل و تکثیر همراه کنند و نوع جدیدی از زندگی که توانایی جایگزینی نژاد انسان را داشته باشد، به وجود آورند.
این فیزیکدان سرشناس مدتزمان مشخصی برای خارج شدن AI از کنترل انسانها و مورد تحدید قرار گرفتن بشر توسط آن ارائه نکرده است و پیشبینی او زمانی در صدسال آینده را برای این اتفاق مشخص میکند. البته صاحبنظران دیگری مانند مدیرعامل شرکت SoftBank، ماسایوشی سان (Masayoshi Son) هم هستند که معتقدند در سی سال پیش رو زندگی انسان بر روی زمین پایان مییابد.
لازم به ذکر است که پیشرفتهای فناوری هوش مصنوعی هنوز به سطح نگرانکننده نرسیدهاند و هیچکس این توانایی را ندارد که با قطعیتِ تمام در مورد نتایج توسعه بیشتر AI نظر بدهد؛ با این حال بسیاری معتقدند که با وجود این عدم اطمینان، بهترین کار ممکن نظارت بر پیشرفتها و رعایت کردن جوانب احتیاط است.