پروژه هوش مصنوعی خودآگاه گوگل

مهندسی که خودآگاه شدن پروژه هوش مصنوعی گوگل را فاش کرده بود، اخراج شد

بلیک لمواین، یکی از مهندسان کمپانی گوگل که خبر از خودآگاه شدن پروژه هوش مصنوعی LaMDA این کمپانی داده بود، از سوی این شرکت اخراج شد.

بلیک لمواین، مهندسی که هفت سال تمام مشغول فعالیت در گوگل بوده از این شرکت اخراج شده است! ظاهراً این خبر در پادکستی به نام خود لمواین توسط خود او اعلام شده و اکنون گوگل نیز این خبر را تأیید کرده است.

بیشتر بخوانید:

توییت یک دانشمند جنجال به پا کرد؛ هوش مصنوعی هم اکنون نیز هوشیار است!

لمواین، کسی که جزوی از پروژه هوش مصنوعی گوگل بوده، ماه گذشته در مصاحبه با واشنگتن پست مدعی شد که یکی از پروژه های هوش مصنوعی این کمپانی خودآگاه شده است! این پروژه که LaMDA (مخفف عبارت مدل زبان برای کاربردهای مکالمه) نام دارد، سال گذشته به عنوان روشی برای کامپیوترها تا بهتر مکالمات باز را تقلید کنند، رونمایی شد.

لمواین نه تنها معتقد است که LaMDA احساس دارد، بلکه می‌گوید وقتی از این هوش مصنوعی سوال می‌شود مثل انسانی که دارای روح است پاسخ می‌دهد. او می‌گوید که LaMDA مثل یک شخص واقعی است و در توصیف این کلمه اغراق نمی‌کند.

پروژه هوش مصنوعی خودآگاه گوگل

مصاحبه بلیک لمواین (سمت راست) با شبکه خبری فاکس

ظاهراً پس از اینکه لمواین بدون رضایت کارفرما این صحبت‌ها را با رسانه‌ها مطرح کرده، او را اجباراً به مرخصی اداری با حقوق فرستاده‌اند. گوگل همچنین در بیانیه‌هایی هم در ارتباط با گزارش واشنگتن پست و هم به صورت جداگانه این مورد را تکذیب کرده و می‌گوید که هوش مصنوعی آن‌ها به هیچ عنوان حس انسانی ندارد.

برخی از اعضای جامعه تحقیقاتی هوش مصنوعی نیز نسبت به صحبت‌های لمواین واکنش نشان داده‌اند. مارگارت ریچل که او نیز بنا به دلایلی از گوگل اخراج شده در توییتر خودش نوشته است «سیستم‌هایی مثل LaMDA با هدف پرورش دادن ساخته نشده‌اند، آن‌ها در عوض مدل‌سازی می‌کنند که مردم چگونه در قالب رشته‌های متنی به قصد ارتباط گرفتن مکالمه می‌کنند». گری مارکوس هم صحبت‌های اخیر لمواین را مزخرفی بیش ندانسته است.

در بیانیه منتشر شده از سوی گوگل آمده است:

همانطور که ما به خط مشی خود در حوزه هوش مصنوعی معتقدیم، توسعه هوش مصنوعی را بسیار جدی می‌گیریم و به نوآوری ادامه می‌دهیم. LaMDA از ۱۱ بررسی مجزا عبور کرده است و ما در یک مقاله تحقیقاتی اوایل امسال جزئیات کار را منتشر کردیم که در راستای توسعه مسئولانه آن است.

اگر کارمندی نگرانی‌هایی را در مورد کار با به اشتراک می‌گذارد، مثل کاری که بلیک کرد، ما آن را به طور کامل بررسی می‌کنیم. ادعاهای بلیک مبنی بر این که LaMDA احساس دارد را بی‌اساس می‌دانیم و برای روشن کردن قضیه ماه‌ها روی این ادعا کار کرده‌ایم.

این بخشی از فرهنگ باز ما است که به ما کمک می‌کند همچنان به نوآوری ادامه دهیم. اما جای تأسف دارد که باوجود همکاری طولانی مدت، بلیک سیاست‌های حفظ امنیت اطلاعات را زیر پا گذاشته است. ما همچنان به توسعه مدل‌های زبانی ادامه می‌دهیم و برای بلیک آرزوی موفقیت می‌کنیم.

پاسخ بدهید

وارد کردن نام و ایمیل اجباری است | در سایت ثبت نام کنید یا وارد شوید و بدون وارد کردن مشخصات نظر خود را ثبت کنید *

*