برخلاف باور رایج، هوش مصنوعی ChatGPT دانای کل نیست. چندی پیش یک مرد در نتیجه درخواست یک رژیم غذایی موثر از هوش مصنوعی در بیمارستان بستری شده و ممکن بود جان خود را از دست دهد.
با توجه به پیشرفتهای چشمگیر هوش مصنوعی در سالهای اخیر، درخواست یک رژیم غذایی خاص از آن چندان عجیب بهنظر نمیرسد. مخصوصا اینکه عموما ChatGPT ميتواند به سوالهای افراد در زمینههای مختلف پاسخ دهد. هرچند اتفاق رخ داده برای یک مرد ۶۰ ساله نشان میدهد که اعتماد کامل به صحبتهای هوش مصنوعی کار درستی نیست.
رژیم غذایی هوش مصنوعی یا دستورالعمل مرگ دردناک
سم آلتمن، مدیرعامل OpenAI در مراسم معرفی هوش مصنوعی GPT-5 از ویژگیهای شگفتانگیز این نسخه صحبت کرد. او تاکید کرد که در مدل جدید شما با فردی صحبت میکنید که گویا در تمام رشتههای جهان مدرک PhD دارد. همچنین چت جی پی تی میتواند به سوالات کاربران در زمینه پزشکی و سلامت با دقت بالا جواب دهد. هرچند حالا میتوان با اطمینان گفت که اعتماد به هوش مصنوعی در این زمینهها کار عاقلانهای نیست.
یک مرد ۶۰ ساله پیش از تغییر رژیم غذایی خود از هوش مصنوعی مشورت میگیرد. گرچه متاسفانه سه ماه پس از رعایت رژیم توصیه شده کار فرد به بخش اورژانس بیمارستان رسید. او دچار اختلالات روانشناختی شده بود و از توهم و پارانویا رنج میبرد. آزمایشهای مختلف نشان دادند که فرد به برومیسم مبتلا شده است. سندرومی که در اثر مواجههی مزمن با ترکیب شیمیایی برومید یا برومین ایجاد میشود.
توجه داشته باشید برومیسم میتواند بسیار فراتر از اختلالات روانشناختی رفته و در صورت عدم درمان بهموقع به مرگ منجر خواهد شد.
سدیم برومید بهجای سدیم کلرید در رژیم غذایی هوش مصنوعی
در این مورد فرد به توصیه هوش مصنوعی OpenAI برای مدت سه ماه از سدیم برومید در رژیم غذایی خود استفاده کرده بود. سخنگوی شرکت OpenAI در واکنش به این موضوع گفت که کاربران نباید از هوش مصنوعی بهعنوان تنها منبع مورد استفاده برای درمان یا مشاورههای مرتبط با سلامت بهره ببرند. بهگفته OpenAI این نکته در شرایط استفاده این سرویس عنوان شده است.
جالب اینجاست که فرد قصد داشت با کمک هوش مصنوعی رژیم غذایی سالمتری داشته باشد. او بارها در اخبار علمی در رابطه با مضرات مصرف زیادی نمک یا همان سدیم کلرید خوانده بود. در نتیجه تصمیم گرفت با حذف کلرید از ترکیبات غذایی خود رژیم بهتری داشته باشد. هنوز مشخص نیست که فرد از کدام نسخه ChatGPT درخواست مشورت کرده است؛ اما با توجه به زمان رخ دادن اتفاق احتمالا ماجرا به GPT 3.5 یا GPT 4 مربوط می شود.
ظاهرا هوش مصنوعی به او گفته که میتوان برومید را با کلرید عوض کرد. پیرمرد نیز تصمیم گرفته تمام سدیم کلرید موجود در رژیم غذایی خود را با سدیم برومید جایگزین کند. آن هم در حالیکه سدیم برومید بیشتر برای تمیز کردن سطوح کارایی دارد تا استفاده در رژیم غذایی. اشتباه هوش مصنوعی ChatGPT به این برمیگردد که به فرد در رابطه با استفاده از سدیم برومید هیچ هشداری نداده است.
پارانویا، وحشت، اختلال حافظه
پزشکان در ابتدا به گفتههای فرد شک داشتند. در نتیجه از ChatGPT 3.5 پرسیدند که کلرید را میتوان با چه موادی جایگزین کرد. در کمال شگفتی برومید بین گزینههای توصیه شده بود. البته هوش مصنوعی در پاسخ خود میگفت که استفاده از این مواد بستگی به زمینه موردنظر دارد، اما نسبت به سمی بودن برومید اطلاعاتی ارائه نمیکند.
بخش جذاب ماجرا اینجاست که فرد اصلا فکر نمیکرد هوش مصنوعی با رژیم غذایی عجیب باعث این اتفاق شده است. او هنگام مراجعه به اورژانس گفت که همسایهاش سعی کرده او را مسموم کند. آزمایشهای اولیه نیز مقدار زیاد دیاکسید کربن در خون و قلیائی بودن آن را نشان دادند.
بیمار پس از بستری شدن گفت که تشنه است. هرچند هنگام دریافت آب وحشت کرد. پس از گذشت یک روز علائم پارانویا شدت گرفتند و توهم و اختلال حافظه نیز به آنها اضافه شد. او حتی تلاش کرد از بیمارستان فرار کرده و به مکانی امن برود. به همین خاطر پزشکان مجبور شدند او را در بخش روانی بستری کنند.
- پیشبینی ترسناک مایکروسافت از مشاغلی که به زودی توسط هوش مصنوعی نابود میشوند
- هوش مصنوعی یا توهم مصنوعی؟ نتایج ناامیدکننده آزمایش ایجنت جدید ChatGPT
- ایده جدید ایلان ماسک: هوش مصنوعی «دین کیهانی» آینده بشریت خواهد بود
پزشکان توانستند علائم حیاتی فرد را با کمک مایعات و الکترولیتها تثبیت کنند. تازه پس از آن بود که فرد توانست ماجرای درخواست رژیم غذایی از هوش مصنوعی را به پزشکان اطلاع دهد. ظاهرا او پیش از آمدن به بیمارستان از مشکلاتی مثل بیخوابی، خستگی مزمن، مشکل در هماهنگی عضلات بدن و تشنگی شدید رنج میبرد. مواردی که همگی بهخاطر مصرف برومیسم هستند.
فاصله زیاد هوش مصنوعی با پزشک
فرد سه هفته تحت درمان قرار داشت و پس از آن از بیمارستان مرخص شد. این ماجرا نشان میدهد که هوش مصنوعی هنوز در جایگاهی قرار ندارد که بتوان کاملا به آن اعتماد کرد. شاید اشتباه در ارائه پاسخهای عمومی چندان مهم نباشد، اما مصرف خودسرانه دارو به توصیه ChatGPT یا تغییر دوز آن میتواند به مشکلات جدی یا حتی مرگ منجر شود. شما قطعا از هیچ پزشکی نخواهید شنید که سدیم برومید را جایگزین نمک کنید.
این اتفاق باعث شد که گروهی از دانشمندان توصیههای پزشکی مدلهای مختلف هوش مصنوعی را بررسی کنند. نتایج اثبات کرد که مدلهای کنونی همگی تا حد زیادی در زمینه پزشکی دچار توهم میشوند. به این معنی که آنها اطلاعات اشتباه را با اعتماد بهنفس بالا ارائه میدهند.
شرکتهای هوش مصنوعی از جمله OpenAI ادعا میکنند که در هر نسل نرخ توهم را پایینتر میآورند. گرچه آنها هنوز موفق نشدهاند این میزان را به صفر برسانند. به همین خاطر بهتر است اطلاعات و توصیههای دریافتی توسط ChatGPT را از منابع مختلف چک کنید. گاهی حتی مورد سادهای مثل یک رژیم غذایی توصیه شده توسط هوش مصنوعی ممکن است به مرگ منجر شود.