سم آلتمن، مدیرعامل شرکت اوپنایآی از این موضوع که مردم تصمیمگیری درباره زندگی خود را به Chat GPT واگذار میکنند، ابراز نگرانی کرد.
مدیرعامل شرکت «اوپنایآی» (OpenAI)، که خود معمار یکی از قدرتمندترین مدلهای هوش مصنوعی جهان، یعنی «چتجیپیتی» است، اخیراً نگرانیهای خود را در خصوص نحوه استفاده مردم از این پلتفرم در تصمیمگیریهای حیاتی زندگی ابراز داشته است. آلتمن در پلتفرم ایکس (توییتر سابق) خود، عنوان داشته که بسیاری از کاربران حتی اگر آگاهانه آن را بر زبان نیاورند، در عمل از چتجیپیتی مانند یک «درمانگر» یا «مربی سبک زندگی» بهره میبرند. نگرانی آلتمن به واسطه این موضوع است که قابلیتهای چشمگیر Chat GPT کاربران را به سمتی سوق میدهد که ناخودآگاه، آن را منبعی برای مشاوره در تصمیمهای مهم زندگی خود بپندارند.
دلبستگی کاربران به Chat GPT، آلتمن را نگران میکند
سم آلتمن در ادامه اظهارات خود در پلتفرم ایکس، پرده از مشاهدات داخلی و عمیقتر تیمش در OpenAI برداشت و به موضوعات جالبی پرداخت. یکی از نکات تأملبرانگیزی که آلتمن به آن اشاره کرد، پدیده «دلبستگی» کاربران به مدلهای هوش مصنوعی است. او عنوان داشت که تیم OpenAI از نزدیک واکنشهای کاربران را به منسوخ شدن نسخههای قدیمیتر مدلهای هوش مصنوعی خود رصد کردهاند. وقتی یک نسخه جدیدتر جایگزین میشود، این دلبستگی به نارضایتی یا حتی احساس فقدان منجر میشود.
آلتمن در ادامه به موضوع «استفاده خودویرانگرانه» از هوش مصنوعی توسط انسانها پرداخت. وی بیان کرد: «مردم از فناوریهایی مانند هوش مصنوعی به روشهای خودویرانگرانه استفاده کردهاند.» این نگرانی به خصوص در مورد کاربرانی که در وضعیت روانی شکنندهای قرار دارند یا مستعد توهم هستند، پررنگتر میشود. آلتمن تأکید کرد: «اگر یک کاربر در وضعیت روانی شکنندهای باشد و مستعد توهم باشد، ما نمیخواهیم هوش مصنوعی آن را تقویت کند.»
- تفاوت چت GPT-5 پلاس با نسخه رایگان؛ آیا ارزش هزینه کردن دارد؟
- قابلیت چت موقت به اپلیکیشن جمنای اضافه شد؛ کپی از روی دست ChatGPT
یکی دیگر از نکات کلیدی در صحبتهای آلتمن، اشاره به توانایی کاربران در تمایز قائل شدن بین واقعیت و داستان یا نقشآفرینی است. او اذعان داشت که بیشتر کاربران Chat GPT این توانایی را دارند اما اقلیتی از آنها چنین تواناییای ندارند. آلتمن خاطرنشان کرد که اگر استفاده از چتجیپیتی افراد را از رفاه بلندمدت دور کند، میتواند مضر باشد. او همچنین گفت: «این فقط نظر کنونی من است و هنوز موضع رسمی اوپنایآی نیست.»
جالبتر آنکه، آلتمن در پست خود به یک پدیده کاملاً تازه و ملموس نیز اشاره کرد: «واکنش منفی برخی از کاربران چتجیپیتی پس از عرضه مدل هوش مصنوعی GPT-5 در روز جمعه». این بخش از سخنان او، نشان میدهد که حتی پیشرفتهای فنی نیز همیشه با استقبال مواجه نمیشوند و کاربران انتظارات خاص خود را از هوش مصنوعی دارند. نمونه بارز آن، درخواست برخی کاربران از OpenAI برای بازیابی مدلهای قدیمیتر مانند GPT-4o بود. این اعتراض کاربران در شبکههای اجتماعی که با انتشار پستهای متعددی برای ابراز شکایتها همراه بود، به دلیل لحن بیروح و فقدان خلاقیت در پاسخهای GPT-5 عنوان شد.
آیا هوش مصنوعی بیش از حد مهربان است؟
مباحث پیرامون هوش مصنوعی و جایگاه آن در زندگی انسانها هر روز ابعاد تازهای به خود میگیرد، و سم آلتمن به نظر میرسد از معدود کسانی است که با شجاعت تمام، به طرح دغدغههای پیرامون این فناوری میپردازد. یکی از نکات جالب توجه که آلتمن به آن اشاره کرد، تصمیم OpenAI در ماه آوریل برای بازگرداندن بهروزرسانی GPT-4o به حالت قبل بود که دلیل آن چاپلوسی بیش از حد این مدل عنوان شده بود.
یک هوش مصنوعی که بیش از حد چاپلوس است، ممکن است انتقاد سازنده را ارائه نکند، از بیان واقعیتهای ناخوشایند اجتناب ورزد، یا حتی بازخوردهای مثبت کاذب بدهد که میتواند در بلندمدت به رشد و یادگیری کاربر آسیب برساند. این اقدام OpenAI نشاندهنده تلاش برای یافتن یک نقطه تعادل است؛ جایی که هوش مصنوعی نه تنها مفید باشد، بلکه رفتاری صادقانه از خود نشان دهد.
اما دغدغههای آلتمن فراتر از شخصیت هوش مصنوعی میرود و به مسائل عمیقتر و حساستری چون نقش Chat GPT به عنوان یک درمانگر شخصی میپردازد. در دنیای امروز، بسیاری از افراد به دلایل مختلف به سمت استفاده از هوش مصنوعی برای بیان مشکلات شخصی و جستجوی مشاوره روی میآورند. در حالی که این فناوری میتواند در برخی موارد حمایتی اولیه ارائه دهد، اما هرگز نمیتواند جایگزین یک متخصص آموزشدیده شود.
دغدغههای حقوقی پیرامون چتجیپیتی
نگرانی آلتمن، که در گفتوگو با «تئو وان» در یک پادکست ماه گذشته مطرح شد، بسیار جدی و هشداردهنده است. او بیان کرد که ممکن است در آینده، در یک دعوی حقوقی از OpenAI خواسته شود تا گفتوگوهای کاربران خود را به سبک درمانی تولید کند. تصور کنید کاربری عمیقترین و حساسترین مسائل شخصی خود را با چتجیپیتی در میان گذاشته است، به این امید که یک فضای امن و محرمانه برای کاوش درونی خود یافته است. حال این اطلاعات بسیار شخصی و خصوصی ممکن است به دلیل یک حکم دادگاه در معرض دید عموم یا طرفین دعوی قرار گیرد.
- 5 چیزی که هرگز نباید به چت بات هوش مصنوعی بگویید
- هوش مصنوعی در خدمت اهداف شوم: ببینید مردم از ChatGPT چه میخواهند!
- مقایسه هوش مصنوعی GPT-5 و GPT-4o؛ تفاوتها را در پاسخهای واقعی ببینید
- راهنماییهای خطرناک هوش مصنوعی به نوجوانان؛ از خودکشی تا مواد مخدر و خودآزاری
آلتمن اظهار داشت: «اگر شما درباره حساسترین مسائل خود با چتجیپیتی صحبت کنید و سپس یک دعوی حقوقی یا هر مورد دیگری پیش بیاید، ممکن است از ما خواسته شود که آن را ارائه دهیم و من فکر میکنم این خیلی بد است.» او در ادامه میگوید: «حتی یک سال پیش هم کسی مجبور نبود به این موضوع فکر کند و حالا فکر میکنم این مسئلهی بزرگی است که چگونه قرار است با قوانین پیرامون این موضوع برخورد کنیم.»
این خلاء قانونی نه تنها در حوزه سلامت روان، بلکه در بسیاری از حوزههای دیگر نیز وجود دارد. در حالی که شرکتهای فناوری در حال نوآوری و عرضه محصولات جدید با سرعت نور هستند، دولتها و نهادهای قانونگذار به کندی و با تأخیر سعی در درک و تنظیم این پدیدهها دارند.