Excoino
رژیم غذایی هوش مصنوعی

اگر می‌خواهید زنده بمانید از هوش مصنوعی رژیم غذایی نگیرید

برخلاف باور رایج، هوش مصنوعی ChatGPT دانای کل نیست. چندی پیش یک مرد در نتیجه درخواست یک رژیم غذایی موثر از هوش مصنوعی در بیمارستان بستری شده و ممکن بود جان خود را از دست دهد.

با توجه به پیشرفت‌های چشمگیر هوش مصنوعی در سال‌های اخیر، درخواست یک رژیم غذایی خاص از آن چندان عجیب به‌نظر نمی‌رسد. مخصوصا اینکه عموما ChatGPT مي‌تواند به سوال‌های افراد در زمینه‌های مختلف پاسخ دهد. هرچند اتفاق رخ داده برای یک مرد ۶۰ ساله نشان می‌دهد که اعتماد کامل به صحبت‌های هوش مصنوعی کار درستی نیست.

رژیم غذایی هوش مصنوعی یا دستورالعمل مرگ دردناک

سم آلتمن، مدیرعامل OpenAI در مراسم معرفی هوش مصنوعی GPT-5 از ویژگی‌های شگفت‌انگیز این نسخه صحبت کرد. او تاکید کرد که در مدل جدید شما با فردی صحبت می‌کنید که گویا در تمام رشته‌های جهان مدرک PhD دارد. همچنین چت جی پی تی می‌تواند به سوالات کاربران در زمینه پزشکی و سلامت با دقت بالا جواب دهد. هرچند حالا می‌توان با اطمینان گفت که اعتماد به هوش مصنوعی در این زمینه‌ها کار عاقلانه‌ای نیست.

یک مرد ۶۰ ساله پیش از تغییر رژیم غذایی خود از هوش مصنوعی مشورت می‌گیرد. گرچه متاسفانه سه ماه پس از رعایت رژیم توصیه شده کار فرد به بخش اورژانس بیمارستان رسید. او دچار اختلالات روان‌شناختی شده بود و از توهم و پارانویا رنج می‌برد. آزمایش‌های مختلف نشان دادند که فرد به برومیسم مبتلا شده است. سندرومی که در اثر مواجهه‌ی مزمن با ترکیب شیمیایی برومید یا برومین ایجاد می‌شود.

توجه داشته باشید برومیسم می‌تواند بسیار فراتر از اختلالات روان‌شناختی رفته و در صورت عدم درمان به‌موقع به مرگ منجر خواهد شد.

سدیم برومید به‌جای سدیم کلرید در رژیم غذایی هوش مصنوعی

در این مورد فرد به توصیه هوش مصنوعی OpenAI برای مدت سه ماه از سدیم برومید در رژیم غذایی خود استفاده کرده بود. سخنگوی شرکت OpenAI در واکنش به این موضوع گفت که کاربران نباید از هوش مصنوعی به‌عنوان تنها منبع مورد استفاده برای درمان یا مشاوره‌های مرتبط با سلامت بهره ببرند. به‌گفته OpenAI این نکته در شرایط استفاده این سرویس عنوان شده است.

جالب اینجاست که فرد قصد داشت با کمک هوش مصنوعی رژیم غذایی سالم‌تری داشته باشد. او بارها در اخبار علمی در رابطه با مضرات مصرف زیادی نمک یا همان سدیم کلرید خوانده بود. در نتیجه تصمیم گرفت با حذف کلرید از ترکیبات غذایی خود رژیم بهتری داشته باشد. هنوز مشخص نیست که فرد از کدام نسخه ChatGPT درخواست مشورت کرده است؛ اما با توجه به زمان رخ دادن اتفاق احتمالا ماجرا به GPT 3.5 یا GPT 4 مربوط می شود.

ظاهرا هوش مصنوعی به او گفته که می‌توان برومید را با کلرید عوض کرد. پیرمرد نیز تصمیم گرفته تمام سدیم کلرید موجود در رژیم غذایی خود را با سدیم برومید جایگزین کند. آن هم در حالیکه سدیم برومید بیشتر برای تمیز کردن سطوح کارایی دارد تا استفاده در رژیم غذایی. اشتباه هوش مصنوعی ChatGPT به این برمی‌گردد که به فرد در رابطه با استفاده از سدیم برومید هیچ هشداری نداده است.

پارانویا، وحشت، اختلال حافظه

پزشکان در ابتدا به گفته‌های فرد شک داشتند. در نتیجه از ChatGPT 3.5 پرسیدند که کلرید را می‌توان با چه موادی جایگزین کرد. در کمال شگفتی برومید بین گزینه‌های توصیه شده بود. البته هوش مصنوعی در پاسخ خود می‌گفت که استفاده از این مواد بستگی به زمینه موردنظر دارد، اما نسبت به سمی بودن برومید اطلاعاتی ارائه نمی‌کند.

بخش جذاب ماجرا اینجاست که فرد اصلا فکر نمی‌کرد هوش مصنوعی با رژیم غذایی عجیب باعث این اتفاق شده است. او هنگام مراجعه به اورژانس گفت که همسایه‌اش سعی کرده او را مسموم کند. آزمایش‌های اولیه نیز مقدار زیاد دی‌اکسید کربن در خون و قلیائی بودن آن را نشان دادند.

بیمار پس از بستری شدن گفت که تشنه است. هرچند هنگام دریافت آب وحشت کرد. پس از گذشت یک روز علائم پارانویا شدت گرفتند و توهم و اختلال حافظه نیز به آنها اضافه شد. او حتی تلاش کرد از بیمارستان فرار کرده و به مکانی امن برود. به همین خاطر پزشکان مجبور شدند او را در بخش روانی بستری کنند.

بیشتر بخوانید

پزشکان توانستند علائم حیاتی فرد را با کمک مایعات و الکترولیت‌ها تثبیت کنند. تازه پس از آن بود که فرد توانست ماجرای درخواست رژیم غذایی از هوش مصنوعی را به پزشکان اطلاع دهد. ظاهرا او پیش از آمدن به بیمارستان از مشکلاتی مثل بی‌خوابی، خستگی مزمن، مشکل در هماهنگی عضلات بدن و تشنگی شدید رنج می‌برد. مواردی که همگی به‌خاطر مصرف برومیسم هستند.

فاصله زیاد هوش مصنوعی با پزشک

فرد سه هفته تحت درمان قرار داشت و پس از آن از بیمارستان مرخص شد. این ماجرا نشان می‌دهد که هوش مصنوعی هنوز در جایگاهی قرار ندارد که بتوان کاملا به آن اعتماد کرد. شاید اشتباه در ارائه پاسخ‌های عمومی چندان مهم نباشد، اما مصرف خودسرانه دارو به توصیه ChatGPT یا تغییر دوز آن می‌تواند به مشکلات جدی یا حتی مرگ منجر شود. شما قطعا از هیچ پزشکی نخواهید شنید که سدیم برومید را جایگزین نمک کنید.

این اتفاق باعث شد که گروهی از دانشمندان توصیه‌های پزشکی مدل‌های مختلف هوش مصنوعی را بررسی کنند. نتایج اثبات کرد که مدل‌های کنونی همگی تا حد زیادی در زمینه پزشکی دچار توهم می‌شوند. به این معنی که آنها اطلاعات اشتباه را با اعتماد به‌نفس بالا ارائه می‌دهند.

شرکت‌های هوش مصنوعی از جمله OpenAI ادعا می‌کنند که در هر نسل نرخ توهم را پایین‌تر می‌آورند. گرچه آنها هنوز موفق نشده‌اند این میزان را به صفر برسانند. به همین خاطر بهتر است اطلاعات و توصیه‌های دریافتی توسط ChatGPT را از منابع مختلف چک کنید. گاهی حتی مورد ساده‌ای مثل یک رژیم غذایی توصیه شده توسط هوش مصنوعی ممکن است به مرگ منجر شود.

پاسخ بدهید

وارد کردن نام و ایمیل اجباری است | در سایت ثبت نام کنید یا وارد شوید و بدون وارد کردن مشخصات نظر خود را ثبت کنید *

*