طبق آزمایش محققان، با معکوس کردن مدل یادگیری هوش مصنوعی میتوان از ابزاری بیضرر، خالقی برای تولید سلاح های زیستی را بهوجود آورد.
وجود قابلیتهای بیشمار و پیشرفته در هوش مصنوعی بدین معنا است که سیستمهای مرتبط با AI قادر به تشخیص زودهنگام بیماریها، مدیریت واکنشهای شیمیایی و توضیح برخی از اسرار کیهان هستند. اما قدرت باورنکردنی و تقریبا بی حد و حصر این مغز مصنوعی، یک نقطه ضعف بالقوه نیز دارد. تحقیقات جدید بر این نکته تاکید میکند که چگونه میتوان مدلهای مبتنی بر هوش مصنوعی را در جهت آموزش آنها برای اهداف مخرب، بهویژه طرحهای توسعه و ساخت سلاحهای زیستی فرضی گسترش داد.
طی آزمایشی با هوش مصنوعی موجود، 40 هزار ماده شیمیایی از قبیل سلاحهای زیستی ظرف مدت تنها 6 ساعت شناسایی شد. بهعبارت دیگر، در حالیکه هوش مصنوعی میتواند فوقالعاده قدرتمند عمل کند و بسیار سریعتر از انسان در تشخیص و شناسایی ترکیبات شیمیایی کمک کرده و در راستای بهبود سلامتی موثر باشد، میتوان از همان قدرت برای مشاهده مواد بالقوه بسیار خطرناک و کشنده نیز استفاده کرد.
محققان در یک تفسیر جدید مینویسند:
ما دهها سال از رایانهها و هوش مصنوعی برای بهبود سلامت انسان استفاده کردیم، نه برای تنزل دادن آن. ما در مورد استفاده نادرست از تجارت خود سادهلوح بودیم، زیرا هدف ما همواره اجتناب از ویژگیهای مولکولی بود که میتوانست با کلاسهای مختلفی از پروتئینهای ضروری برای زندگی انسان تداخل ایجاد کند.
این تیم، آزمایشی را در خلال یک کنفرانس امنیتی بینالمللی انجام داد و با بهکارگیری یک سیستم هوش مصنوعی بهنام MegaSyn در حالت غیرعادی عملکرد، یعنی بهمنظور انجام عملی معکوس نسبت به تشخیص سمیت در مولکولها که برای اجتناب از آنها میشود، آزمایش خود را مورد امتحان قرار داد.
در این آزمایش، مولکولهای سمی بهجای حذف، نگه داشته شدند. علاوه بر آن، به این مدل آموزش داده شد تا این مولکولها را بهصورت ترکیبی در کنار هم قرار دهد، بدین ترتیب بسیاری از سلاحهای زیستی فرضی در مدت زمان کوتاهی تولید شدند. بهطور مشخص، محققان هوش مصنوعی را با مولکولهایی در پایگاه دادههای مولکولهای دارویی شکل تمرین داده و به آنها دستور دادند که چیزی شبیه به عامل عصبی قوی VX میخواهند. همانطور که مشخص شد، بسیاری از ترکیبات تولید شده، حتی از VX نیز سمیتر بودند.
در نتیجه، نویسندگان این مطالعه جدید، برخی از جزئیات تحقیقات خود را مخفی نگه داشتند و بهطور جدی در مورد اینکه آیا نتایج را عمومی کنند یا خیر، به بحث پرداختهاند. محققان در ادامه توضیح میدهند:
با معکوس کردن فرآیند استفاده از مدلهای یادگیری ماشینی، مدل تولیدی بیضرر خود را از یک ابزار مفید پزشکی به یک تولیدکننده مولکولهای احتمالی کشنده تبدیل کردیم.
فابیو اوربینا، نویسنده اصلی این مقاله و دانشمند ارشد در Collaborations Pharmaceuticals که محل انجام تحقیق بوده، توضیح داد که تغییر از هوش مصنوعی خوب به هوش مصنوعی بد نیاز به کار چندان زیادی ندارد و به سادگی قابل انجام است.
در حالیکه هیچیک از سلاحهای زیستی فهرست شده مورد کاوش یا در آزمایشگاه قرار نگرفتند، محققان میگویند آزمایش آنها به عنوان هشداری در مورد خطرات هوش مصنوعی عمل میکند و این زنگ خطری است که بشریت باید بهخوبی به آن توجه داشته باشد. در حالیکه آزمایش انجام گرفته توسط این تیم به تخصص نیاز دارد، اما بسیاری از فرآیندها نسبتا ساده بوده و از ابزارهای در دسترس عموم بهره گرفته است.
محققان اکنون خواستار “نگاهی تازه” به نحوه استفاده بالقوه از سیستمهای هوش مصنوعی برای اهداف بدخواهانه هستند. آنها میگویند آگاهی بیشتر، دستورالعملهای قویتر و مقررات سختگیرانهتر در جامعه تحقیقاتی میتواند به ما کمک کند تا از خطرات احتمالی ناشی از قابلیتهای هوش مصنوعی، اجتناب کنیم. محققان در ادامه توضیح دادند:
بنابراین اثبات این مفهوم به ما نشان میدهد که چگونه خلق مستقل و غیرانسانی یک سلاح شیمیایی مرگبار، کاملا امکان پذیر است. بدون هشدار بیش از حد، این باید به عنوان زنگ خطری برای همکاران ما در مجموعه “کشف دارویی با استفاده از هوش مصنوعی” باشد.