چت‌های هوش مصنوعی

از این پس چت‌های شما با هوش مصنوعی یک مدرک قانونی است!

با صدور حکمی تازه در آمریکا، یک قاضی اعلام کرد چت‌های کاربران با ابزارهای هوش مصنوعی می‌تواند در روند قضایی به‌عنوان مدرک مورد استفاده قرار گیرد.

یک قاضی فدرال در آمریکا در حکمی کم‌سابقه اعلام کرده گفت‌وگوی یک متهم با یک چت‌بات هوش مصنوعی می‌تواند در روند رسیدگی قضایی به‌عنوان مدرک ارائه شود. همین تصمیم موجی از نگرانی میان کارشناسان حقوقی ایجاد کرده که می‌گویند مکالمات کاربران با این ابزارها برخلاف تصور عمومی همیشه محرمانه نمی‌ماند.

آن‌ها هشدار می‌دهند داده‌هایی که افراد با خیال امن‌بودن در چت‌بات‌ها وارد می‌کنند، در شرایط خاص ممکن است علیه خودشان به کار گرفته شود. به‌دنبال این وضعیت، بسیاری از وکلای آمریکایی اکنون به موکلانشان توصیه می‌کنند در اعتماد بیش‌ازحد به این پلتفرم‌ها احتیاط کنند.

فهرست مطالب

چت‌های هوش مصنوعی زیر ذره‌بین دادگاه فدرال

با گسترش استفاده عمومی از هوش مصنوعی برای دریافت مشاوره در موضوعات مختلف، بسیاری از وکلا در آمریکا هشدار می‌دهند که کاربران نباید این ابزارها را به چشم یک «محرم راز» ببینند؛ به‌ویژه زمانی که پای مسائل حساس حقوقی یا آزادی فرد در میان است. این نگرانی‌ها پس از صدور حکمی از سوی یک قاضی فدرال در نیویورک شدت گرفت.

در این پرونده، قاضی رأی داد که بردلی هپنر، مدیرعامل سابق شرکت GWG Holdings و بنیان‌گذار شرکت Beneficent حق ندارد چت‌های خود با چت‌بات هوش مصنوعی Claude را از دادستان‌ها مخفی کند. هپنر که سال گذشته با اتهامات مرتبط با کلاهبرداری اوراق بهادار و کلاهبرداری اینترنتی تحت پیگرد قرار گرفت، از Claude برای تهیه تحلیل‌ها و گزارش‌هایی استفاده کرده بود که قرار بود در اختیار تیم حقوقی‌ وی قرار گیرد. به همین دلیل، وکلای او استدلال کردند این مکالمات بخشی از فرآیند دفاع حقوقی بوده و باید تحت پوشش «امتیاز محرمانگی وکیل-موکل» قرار گیرد.

اما دادستان‌ها نظر دیگری داشتند و از دید آنها، گفت‌وگو با یک چت‌بات حتی اگر با هدف آماده‌سازی دفاع حقوقی انجام شده باشد، معادل ارتباط با وکیل نیست و مشمول هیچ‌گونه امتیاز محرمانگی نمی‌شود. قاضی جد راکاف نیز با این استدلال همراه شد و حکم داد هپنر موظف است ۳۱ سند تولیدشده توسط Claude را تحویل دهد.

همچنین بخوانید

دیدگاه متضاد یک قاضی در میشیگان

با این حال، همه قضات چنین دیدگاهی ندارند و در پرونده‌ای متفاوت در ایالت میشیگان، یک قاضی نظر متضادی ارائه کرد. او اعلام کرد زنی که به‌تنهایی علیه کارفرمای سابق خود طرح دعوی کرده، لازم نیست چت‌هایش با چت‌جی‌پی‌تی را ارائه دهد. این قاضی استدلال کرد که استفاده او از چت‌بات بخشی از کار شخصی برای آماده‌سازی پرونده بوده و به معنای افشای اطلاعات با یک شخص ثالث محسوب نمی‌شود. او تأکید کرد: «ابزارهایی مثل ChatGPT «ابزار هستند، نه انسان»؛ بنابراین همیشه نمی‌توان آن‌ها را در جایگاه یک طرف مستقل در ارتباطات حقوقی قرار داد.»

با وجود این اختلاف آراء، نگرانی درباره حریم خصوصی کاربران جدی‌تر از گذشته مطرح شده است. در مفاد استفاده شرکت‌های OpenAI و Anthropic به‌صراحت آمده که این شرکت‌ها ممکن است داده‌های کاربران را با طرف‌های ثالث به اشتراک بگذارند. همچنین هشدار داده شده که افراد نباید بدون مشورت با متخصصان حقوقی، برای موضوعات حساس به تحلیل‌های چت‌بات‌ها اتکا کنند. حتی قاضی راکاف نیز در حکم خود اشاره کرد که پلتفرم Claude به کاربران اعلام کرده نباید انتظار حریم خصوصی کامل داشته باشند.

تدوین دستورالعمل‌های جدید توسط شرکت‌های حقوقی

این تحولات باعث شده بسیاری از شرکت‌های حقوقی بزرگ در آمریکا دست به تدوین دستورالعمل‌هایی برای کاهش ریسک استفاده از هوش مصنوعی بزنند. این توصیه‌ها شامل مواردی مانند انتخاب هوشمندانه پلتفرم، خودداری از وارد کردن اطلاعات حساس، و حتی افزودن جملات مشخص در متن درخواست‌ها است. برای مثال، شرکت Debevoise & Plimpton پیشنهاد می‌کند کاربران اگر از هوش مصنوعی در روندی زیر نظر وکیل استفاده می‌کنند، به‌طور واضح در پرامپت بنویسند: «این تحقیق را تحت هدایت وکیل برای پرونده X انجام می‌دهم.»

برخی دیگر از شرکت‌ها مانند O’Melveny & Myers به استفاده از سیستم‌های «بسته» هوش مصنوعی توصیه می‌کنند؛ سیستم‌هایی که ویژه سازمان‌ها طراحی شده‌اند و احتمالاً حفاظت بیشتری نسبت به نسخه‌های عمومی ارائه می‌دهند.

1 دیدگاه
بازخورد درون خطی
مشاهده همه نظرات

خبر فیک میذارن تا چت هوش مصنوعی را هم مسدود نگه دارند ما رو گوش دراز فرض کردن

1
0
در بحث شرکت کنیدx