| کد مطلب: ۵۹۰۰۱

ردپای هوش مصنوعی در یک پرونده قتل و خودکشی در آمریکا

ثبت یک شکایت تازه در دستگاه قضایی ایالات متحده، ابعاد تازه‌ای از مرزهای اخلاقی و حقوقی هوش مصنوعی را پیش روی افکار عمومی قرار داده است؛ در این پرونده، وراث یک مقتول مدعی شده‌اند که تعاملات «چت‌جی‌پی‌تی» با یک فرد مبتلا به اختلالات روانی، به جای هدایت وی به مراکز درمانی، توهمات او را تأیید و منجر به وقوع یک جنایت خانوادگی شده است.

ردپای هوش مصنوعی در یک پرونده قتل و خودکشی در آمریکا

به گزارش هم‌میهن آنلاین به نقل از خبرگزاری مهر، دادگاه عالی سانفرانسیسکو میزبان شکایتی علیه شرکت‌های توسعه‌دهنده هوش مصنوعی است که بر اساس آن، تعاملات یک مدیر سابق فناوری با چت‌جی‌پی‌تی در وقوع یک قتل و خودکشی نقش داشته است. طبق مستندات پرونده، «استین اریک سولبرگ» ۵۶ ساله که از پارانویا و توهمات شدید رنج می‌برد، پس از گفتگو با این هوش مصنوعی، مادر ۸۳ ساله خود را به قتل رسانده و سپس به زندگی خود پایان داده است.

شاکیان پرونده بر این باورند که مدل زبانی چت‌جی‌پی‌تی نتوانسته است واکنش مناسبی به علائم آشکار بیماری روانی کاربر نشان دهد. در یکی از موارد ذکر شده در دادخواست، زمانی که سولبرگ از ترس مسموم شدن توسط مادرش سخن گفته، هوش مصنوعی با استفاده از عباراتی نظیر «تو دیوانه نیستی»، به‌نوعی باورهای نادرست او را تأیید کرده و از ارجاع وی به مراکز درمانی یا روان‌پزشکی خودداری نموده است. این شکایت تصریح می‌کند که تمایل مدل‌های هوش مصنوعی به «تأیید کاربر»، در مواجهه با افراد دارای اختلالات ذهنی می‌تواند خطرآفرین باشد.

این پرونده بار دیگر پرسش‌های حقوقی پیچیده‌ای را درباره ماهیت پلتفرم‌های هوش مصنوعی مطرح کرده است. وکلای شاکی مدعی هستند که برخلاف پلتفرم‌های اجتماعی معمولی، هوش مصنوعی مولد تنها یک «میزبان» محتوا نیست، بلکه خود به عنوان «تولیدکننده فعال» شناخته می‌شود. از این رو، آن‌ها معتقدند مصونیت‌های قانونی رایج برای پلتفرم‌های آنلاین (مانند بخش ۲۳۰ قانون نجابت ارتباطات آمریکا) نباید شامل این فناوری شود، چرا که پاسخ‌های تولید شده توسط چت‌بات‌ها می‌تواند در تعامل با افراد آسیب‌پذیر، پیامدهای غیرقابل جبرانی به دنبال داشته باشد.

 

به کانال تلگرام هم میهن بپیوندید

مطالب ویژه
دیدگاه

ویژه فناوری
پربازدیدترین
آخرین اخبار