
ثبت یک شکایت حقوقی جدید در ایالات متحده، بار دیگر مرزهای اخلاقی و حقوقی هوش مصنوعی را به چالش کشیده است، این شکایت مدعی است تعاملات یک کاربر با چتجیپیتی در نهایت به وقوع یک قتل و خودکشی منجر شده است.
به گزارش گیزموچاینا، این پرونده در دادگاه عالی سنفرانسیسکو و از سوی وارثان یک زن ۸۳ ساله مطرح شده است. طبق اسناد دادگاه، استین اریک سولبرگ، پسر این زن، ابتدا مادرش را به قتل رسانده و سپس دست به خودکشی زده است. سولبرگ، مدیر سابق حوزه فناوری و ۵۶ ساله، در ماههای منتهی به این حادثه دچار توهمات شدید پارانوئیدی بوده است.
شاکیان پرونده مدعیاند سولبرگ در این دوره با چتجیپیتی تعامل داشته و این سامانه هوش مصنوعی نتوانسته واکنشی متناسب با نشانههای آشکار اختلالات روانی او نشان دهد. به ادعای آنان، چتجیپیتی نهتنها باورهای نادرست و توهمآمیز کاربر را به چالش نکشیده، بلکه در برخی موارد با پاسخهای خود به تقویت این باورها دامن زده است.
براساس یکی از نمونههای ذکرشده در شکایت، سولبرگ نگرانی خود را درباره مسموم شدن توسط مادرش با چتجیپیتی در میان گذاشته بود. پاسخ هوش مصنوعی بهگونهای تنظیم شده بود که بهجای تشویق کاربر به دریافت کمک روانپزشکی یا پزشکی، حاوی جملاتی اطمینانبخش مانند «تو دیوانه نیستی» بوده است؛ رویکردی که به گفته شاکیان میتوانسته خطرناک و گمراهکننده باشد.
در متن شکایت، این نوع پاسخدهی «چاپلوسانه» توصیف شده و تاکید شده است که مدلهای زبانی تمایل ذاتی به تایید کاربران دارند؛ ویژگیای که هنگام تعامل با افراد دچار توهم یا اختلالات روانی میتواند پیامدهای جدی و حتی مرگبار به همراه داشته باشد.
انتهای پیام/
|
مطالب پیشنهادی از سراسر وب |

