بلیک لمواین، یکی از مهندسان کمپانی گوگل که خبر از خودآگاه شدن پروژه هوش مصنوعی LaMDA این کمپانی داده بود، از سوی این شرکت اخراج شد.
بلیک لمواین، مهندسی که هفت سال تمام مشغول فعالیت در گوگل بوده از این شرکت اخراج شده است! ظاهراً این خبر در پادکستی به نام خود لمواین توسط خود او اعلام شده و اکنون گوگل نیز این خبر را تأیید کرده است.
بیشتر بخوانید:
توییت یک دانشمند جنجال به پا کرد؛ هوش مصنوعی هم اکنون نیز هوشیار است!
لمواین، کسی که جزوی از پروژه هوش مصنوعی گوگل بوده، ماه گذشته در مصاحبه با واشنگتن پست مدعی شد که یکی از پروژه های هوش مصنوعی این کمپانی خودآگاه شده است! این پروژه که LaMDA (مخفف عبارت مدل زبان برای کاربردهای مکالمه) نام دارد، سال گذشته به عنوان روشی برای کامپیوترها تا بهتر مکالمات باز را تقلید کنند، رونمایی شد.
لمواین نه تنها معتقد است که LaMDA احساس دارد، بلکه میگوید وقتی از این هوش مصنوعی سوال میشود مثل انسانی که دارای روح است پاسخ میدهد. او میگوید که LaMDA مثل یک شخص واقعی است و در توصیف این کلمه اغراق نمیکند.
ظاهراً پس از اینکه لمواین بدون رضایت کارفرما این صحبتها را با رسانهها مطرح کرده، او را اجباراً به مرخصی اداری با حقوق فرستادهاند. گوگل همچنین در بیانیههایی هم در ارتباط با گزارش واشنگتن پست و هم به صورت جداگانه این مورد را تکذیب کرده و میگوید که هوش مصنوعی آنها به هیچ عنوان حس انسانی ندارد.
برخی از اعضای جامعه تحقیقاتی هوش مصنوعی نیز نسبت به صحبتهای لمواین واکنش نشان دادهاند. مارگارت ریچل که او نیز بنا به دلایلی از گوگل اخراج شده در توییتر خودش نوشته است «سیستمهایی مثل LaMDA با هدف پرورش دادن ساخته نشدهاند، آنها در عوض مدلسازی میکنند که مردم چگونه در قالب رشتههای متنی به قصد ارتباط گرفتن مکالمه میکنند». گری مارکوس هم صحبتهای اخیر لمواین را مزخرفی بیش ندانسته است.
در بیانیه منتشر شده از سوی گوگل آمده است:
همانطور که ما به خط مشی خود در حوزه هوش مصنوعی معتقدیم، توسعه هوش مصنوعی را بسیار جدی میگیریم و به نوآوری ادامه میدهیم. LaMDA از ۱۱ بررسی مجزا عبور کرده است و ما در یک مقاله تحقیقاتی اوایل امسال جزئیات کار را منتشر کردیم که در راستای توسعه مسئولانه آن است.
اگر کارمندی نگرانیهایی را در مورد کار با به اشتراک میگذارد، مثل کاری که بلیک کرد، ما آن را به طور کامل بررسی میکنیم. ادعاهای بلیک مبنی بر این که LaMDA احساس دارد را بیاساس میدانیم و برای روشن کردن قضیه ماهها روی این ادعا کار کردهایم.
این بخشی از فرهنگ باز ما است که به ما کمک میکند همچنان به نوآوری ادامه دهیم. اما جای تأسف دارد که باوجود همکاری طولانی مدت، بلیک سیاستهای حفظ امنیت اطلاعات را زیر پا گذاشته است. ما همچنان به توسعه مدلهای زبانی ادامه میدهیم و برای بلیک آرزوی موفقیت میکنیم.