ردپای هوش مصنوعی در یک پرونده قتل و خودکشی در آمریکا
ثبت یک شکایت تازه در دستگاه قضایی ایالات متحده، ابعاد تازهای از مرزهای اخلاقی و حقوقی هوش مصنوعی را پیش روی افکار عمومی قرار داده است؛ در این پرونده، وراث یک مقتول مدعی شدهاند که تعاملات «چتجیپیتی» با یک فرد مبتلا به اختلالات روانی، به جای هدایت وی به مراکز درمانی، توهمات او را تأیید و منجر به وقوع یک جنایت خانوادگی شده است.
به گزارش هممیهن آنلاین به نقل از خبرگزاری مهر، دادگاه عالی سانفرانسیسکو میزبان شکایتی علیه شرکتهای توسعهدهنده هوش مصنوعی است که بر اساس آن، تعاملات یک مدیر سابق فناوری با چتجیپیتی در وقوع یک قتل و خودکشی نقش داشته است. طبق مستندات پرونده، «استین اریک سولبرگ» ۵۶ ساله که از پارانویا و توهمات شدید رنج میبرد، پس از گفتگو با این هوش مصنوعی، مادر ۸۳ ساله خود را به قتل رسانده و سپس به زندگی خود پایان داده است.
شاکیان پرونده بر این باورند که مدل زبانی چتجیپیتی نتوانسته است واکنش مناسبی به علائم آشکار بیماری روانی کاربر نشان دهد. در یکی از موارد ذکر شده در دادخواست، زمانی که سولبرگ از ترس مسموم شدن توسط مادرش سخن گفته، هوش مصنوعی با استفاده از عباراتی نظیر «تو دیوانه نیستی»، بهنوعی باورهای نادرست او را تأیید کرده و از ارجاع وی به مراکز درمانی یا روانپزشکی خودداری نموده است. این شکایت تصریح میکند که تمایل مدلهای هوش مصنوعی به «تأیید کاربر»، در مواجهه با افراد دارای اختلالات ذهنی میتواند خطرآفرین باشد.
این پرونده بار دیگر پرسشهای حقوقی پیچیدهای را درباره ماهیت پلتفرمهای هوش مصنوعی مطرح کرده است. وکلای شاکی مدعی هستند که برخلاف پلتفرمهای اجتماعی معمولی، هوش مصنوعی مولد تنها یک «میزبان» محتوا نیست، بلکه خود به عنوان «تولیدکننده فعال» شناخته میشود. از این رو، آنها معتقدند مصونیتهای قانونی رایج برای پلتفرمهای آنلاین (مانند بخش ۲۳۰ قانون نجابت ارتباطات آمریکا) نباید شامل این فناوری شود، چرا که پاسخهای تولید شده توسط چتباتها میتواند در تعامل با افراد آسیبپذیر، پیامدهای غیرقابل جبرانی به دنبال داشته باشد.