آیا هوش مصنوعی قادر به خواندن فکر شماست؟ اکنون این فناوری میتواند افکار ناخودآگاه را پیش از آگاهیتان رمزگشایی کند، چالشی جدی برای حریم خصوصی و اخلاق انسانی.
دستگاههای ذهن خوانی، که اغلب با نام رابطهای مغز و رایانه (BCI) شناخته میشوند، در سالهای اخیر پیشرفتهای چشمگیری داشتهاند. این فناوریها قادرند فعالیتهای مغز انسان را ثبت و تفسیر کنند و راه را برای کاربردهای درمانی و کنترلی هموار میسازند.
با این حال، استفاده از آنها همزمان با چالشهای اخلاقی و نگرانیهای جدی درباره حفظ حریم خصوصی فزایندهای روبرو است که باید به آنها پرداخت.
آیا هوش مصنوعی ذهن ما را میخواند؟
نانسی اسمیت، بیمار فلج شدهای بود که با کمک رابط مغز و رایانه (BCI) و تنها با تصور نواختن پیانو، توانست دوباره موسیقی بسازد. این دستگاه حتی قبل از آگاهی کامل او، قصدش برای نواختن را تشخیص میداد. ریچارد اندرسن، عصبشناس، رهبر این آزمایش بود.
حدود ۹۰ نفر دیگر نیز از BCI برای کنترل فناوریهای کمکی مانند کامپیوترها و بازوی رباتیک استفاده کردهاند. با این حال، ایمپلنت نانسی اسمیت در قشر جداری خلفی مغز او (مرتبط با استدلال و برنامهریزی) نصب شده بود که امکان رمزگشایی طیف وسیعتری از سیگنالها را فراهم میآورد. این توانایی دستگاهها برای دسترسی به جنبههای پنهان ذهن، از جمله افکار ناخودآگاه، نگرانیهای اخلاقی جدیدی را درباره حریم خصوصی دادههای عصبی ایجاد میکند.
- دانشمندان سلولهای مغزی را کشف کردند که میتوانند آلزایمر را متوقف کنند
- آیا ChatGPT نحوه عملکرد مغز شما را تغییر میدهد؟
نگرانیهای فزاینده درباره حریم خصوصی ذهن
هوش مصنوعی قابلیتهای دستگاههای پوشیدنی عصبفناوری مصرفکننده را افزایش میدهد. این دستگاهها، که اغلب بر پایه الکتروانسفالوگرافی (EEG) کار میکنند، سیگنالهای مغز را از خارج از بدن ثبت میکنند و میتوانند حالتهای عمومی مغز مانند هوشیاری یا اضطراب را نشان دهند. متخصصان اخلاق نگرانند که بدون مقررات کافی، این ابزارها دسترسی شرکتهای فناوری به دادههای دقیقتری از واکنشهای درونی کاربران را فراهم کنند.
برخلاف BCIهای پزشکی که تحت نظارتاند، بازار مصرفکننده عصبفناوری نظارت قانونی کمی دارد. تجزیه و تحلیلها نشان میدهد که بیشتر شرکتها کنترل کاملی بر دادههای کاربران دارند و میتوانند آنها را بفروشند.
اگرچه قوانینی برای حفاظت از دادههای عصبی در شیلی و چند ایالت آمریکا تصویب شده، اما منتقدان معتقدند این قوانین ناکافی هستند؛ زیرا صرفاً بر دادههای خام تمرکز دارند و نه بر استنباطهایی که هوش مصنوعی میتواند با ترکیب این دادهها با سایر اطلاعات دیجیتال، درباره سلامت روان یا وابستگیهای سیاسی افراد انجام دهد. این امر میتواند حریم خصوصی فردی را به شدت نقض کند.
آینده ذهن خوانی: از درمان تا کنترل ناخودآگاه
پیشرفت در BCIهای بالینی ادامه دارد، هرچند هنوز هیچ دستگاهی برای استفاده عمومی تأیید نشده است. شرکتهایی مانند Synchron و Neuralink از پیشگامان هستند؛ Synchron با ایمپلنت سادهتر و کمتر تهاجمی خود به دنبال تأیید FDA است، در حالی که Neuralink ایلان ماسک دستگاههای پیچیدهتری را در بیش از ۱۳ داوطلب انسانی کاشته است تا به آنها در کنترل رایانهها و دستهای رباتیک کمک کند.
هدف بعدی توسعهدهندگان BCI، فراتر رفتن از قشر حرکتی مغز و دسترسی به پیشزمینههای ناخودآگاه فکر است. گروه اندرسن قبلاً گفتوگوهای درونی را از قشر جداری رمزگشایی کرده و حتی توانایی شناسایی تصمیمات در بازی بلکجک را نشان دادهاند.
- چینیها دستگاهی ساختند که افکار انسان را به گفتار صوتی تبدیل میکند
- چینی ها هوش مصنوعی توسعه دادهاند که ذهن افراد را میخواند
این فناوریها میتوانند در تشخیص و درمان بیماریهای روانپزشکی نیز نقش داشته باشند، از جمله با ساخت مدلهای بنیادین فعالیت مغز از طریق آموزش الگوریتمهای هوش مصنوعی. تام آکسلی، مدیرعامل Synchron، پیشبینی میکند که ترکیب دادههای BCI با سایر اطلاعات دیجیتال، امکان استنباط درباره زندگی درونی افراد و حتی واکنش به افکار و خواستههای ناخودآگاه را فراهم میآورد که میتواند بر تفکر و رفتار تأثیر بگذارد.
خطرات هوش مصنوعی در تغییر تفکر انسان
تحقیقات نشان داده است که هوش مصنوعی میتواند سیگنالهای خطای ناخودآگاه را در مغز تشخیص دهد، حتی پیش از آنکه کاربر از اشتباه خود آگاه شود. این قابلیت به سیستمهای BCI اجازه میدهد تا اقدامات کاربر را پیشبینی کرده و بهطور خودکار اصلاحاتی را انجام دهند که میتواند سرعت عمل را بالا ببرد، اما این سؤال را مطرح میکند که آیا دستگاه میتواند بدون رضایت صریح کاربر، به جای او عمل کند؟
نیتا فراهانی، متخصص اخلاق، به استفاده شرکت Neuralink از چتبات Grok با BCI اشاره میکند. این چتبات به یک داوطلب غیرکلامی کمک میکند تا با سرعت مکالمه عادی صحبت کند، اما فراهانی هشدار میدهد که چنین چتباتی که واسطه هر ارتباط فرد است، میتواند تأثیر زیادی بر آنچه کاربر میگوید داشته باشد و حتی نحوه تفکر او را شکل دهد.
او بر این باور است که آنچه بیان میکنید، بخشی از هویت شما میشود و ناخودآگاه شما را شکل میدهد. فراهانی و همکارانش خواستار نوع جدیدی از مقررات BCI هستند که بر اساس آن، توسعهدهندگان وظیفه امانتداری قانونی (fiduciary duty) در قبال کاربران خود داشته باشند و همیشه به نفع آنها عمل کنند. نگرانی اصلی اکنون بیشتر بر روی آنچه در داخل دستگاه اتفاق میافتد، متمرکز است تا صرفاً حفظ حریم خصوصی دادههای خروجی از آن.
گجت نیوز آخرین اخبار تکنولوژی، علم و خودرو 








