مگ بلاگ

این داستان های ترسناک ثابت می کنند که هوش مصنوعی می تواند یک تهدید جدی باشد

این داستان های ترسناک ثابت می کنند که هوش مصنوعی می تواند یک تهدید جدی باشد

مشکل فوق الذکر در مورد استنادات تقلبی پرونده های دادگاه به پرونده های واقعی نیز سرایت کرده است، حداقل تا حدی به لطف وکلایی که کاملاً درک نمی کنند ChatGPT چیست. یکی از وکیل‌ها، استیون آ. شوارتز، در ژوئن 2023 زمانی بدنام شد که به دلیل استناد به قانون قضائی موهوم ایجاد شده توسط ChatGPT در اظهاراتش با تحریم‌های احتمالی مواجه شد. اساساً، او اعتراف کرد که به اشتباه متوجه شده بود چت بات چیست، زیرا فکر می‌کرد که این یک موتور جستجوی پیچیده است و نه یک مدل زبان که بتواند نقل قول‌های جعلی را از پارچه کامل بسازد.

بعداً در سال 2023، یکی از فارغ‌التحصیلان دانشکده حقوق به نام زکریا کرابیل وضعیت اسفناک خود را برای واشنگتن پست بازگو کرد. او که بیش از حد کار می کرد، ChatGPT را مجبور کرد که برای او یک پیشنهاد بنویسد، خودش آن را ثبت کرد و بعد از آن متوجه شد که خیلی دیر شده بود که این حرکت با نقل قول های خیالی پر شده است. یک وکیل جوان دیگر در یک شرکت حقوقی اخراج، داستان مشابهی داشت که در نتیجه هر دوی آنها جریمه شدند.

این موضوع همچنان ادامه دارد، زیرا یک وکیل مستقر در لانگ آیلند، جائه لی، توسط قانون بلومبرگ گزارش شد که در ژانویه 2024 به دلیل استناد به یک قانون قضایی جعلی دیگر با تحریم های احتمالی روبرو شده است. زمانی که لی برای اظهار نظر تماس گرفت، نوشت: “من متعهد هستم که به بالاترین استانداردهای حرفه ای پایبند باشم و به این موضوع با جدیتی که شایسته آن است رسیدگی کنم.” او از پاسخ دادن به سؤالات بیشتر خودداری کرد “با توجه به ماهیت محرمانه رسیدگی انضباطی”.

امیدواریم که درک بیشتر از چیستی ChatGPT، تعداد دفعات وقوع این اتفاق را در آینده محدود کند.

امتیاز شما به این نوشته چند است؟

ADS