| کد مطلب: ۸۹۸۲
درس‏‌های اوپنهایمری برای قانونمندکردن هوش مصنوعی

درس‏‌های اوپنهایمری برای قانونمندکردن هوش مصنوعی

آمنه دهشیری پژوهشگر حق‌های دیجیتال و هوش مصنوعی فیلم «اوپنهایمر»، آخرین ساخته کریستوفر نولان، در روزهایی اکران شد که هوش مصنوعی با شتابی فراتر از انتظار در حا

dehshiri ameneh

آمنه دهشیری

پژوهشگر حق‌های دیجیتال و هوش مصنوعی

فیلم «اوپنهایمر»، آخرین ساخته کریستوفر نولان، در روزهایی اکران شد که هوش مصنوعی با شتابی فراتر از انتظار در حال پیشرفت و فراگیرشدن بود. درست دوماه قبل از اکران فیلمی که نام پدر بمب اتمی را بر خود داشت، جفری هینتون، پدر هوش مصنوعی به نشانه پشیمانی از نقش‌اش در ایجاد هوش مصنوعی، از گوگل استعفا داد.
کافی ‌ا‌ست میزان پیشرفت سیستم‌ها و خدمات مبتنی بر هوش مصنوعی از نوامبر سال 2022 که روبات‌چت جی‌پی‌تی معرفی شد را با اکنون مقایسه کنیم. کیفیت و تنوع کاربرد‌ها ما را متقاعد می‌کند که با تکنولوژی‌ای مواجه‌ایم که در مدت‌زمان کوتاهی، زندگی بشر را به قبل و بعد از خودش تقسیم کرده است.
به‌عبارتی، آخرین فیلم نولان در لحظه‌ی اوپنهایمری تکنولوژی هوش مصنوعی اکران شد. از تعبیر «لحظه اوپنهایمری» برای توصیف بزنگاه‌هایی می‌توان استفاده کرد که خالقان یک تکنولوژی مهم می‌فهمند، آنچه آفریده‌اند ممکن است نتایج هولناکی برای بشر داشته باشد. درست شبیه لحظه‌ی روبه‌رویی ویکتور فرانکنشتاین با هیولایش.
خط نامرئی دیگری که داستان فیلم «اوپنهایمر» را به جهان سال 2023 وصل می‌کند، این پرسش است:
«آیا تکنولوژی بی‌طرف است؟»
آیا سازندگان بمب اتم هم به‌خاطر کشته‌شدن چندصد هزار نفر در ژاپن، مسئولیت اخلاقی دارند یا تمام مسئولیت بر دوش کسانی ا‌ست که بمب‌ها را روی دو شهر هیروشیما و ناکازاکی انداختند؟
کسانی که به اردوگاه بی‌طرفی تکنولوژی تعلق دارند به‌طور سنتی از مثال معروف چاقو استفاده می‌کنند: «با چاقو هم می‌توان میوه پوست کند، هم آدم کشت.» به‌نظر آنها، تکنولوژی فقط یک ابزار است. این انسان است که تصمیم می‌گیرد ابزارها را کجا و به چه منظوری به‌کار ببرد.
اما آیا واقعاً تصمیم‌گیری در مورد نقش و کارکرد هوش مصنوعی در زندگی‌ هرروزه، با ما انسان‌های معمولی‌ است؟ از صبح که از خواب بیدار می‌شویم گوشی، اعمال حیاتی بدن‌مان را با استفاده از هوش مصنوعی زیر نظر دارد. در مسیرمان از خانه تا محل کار از جلوی چند دوربین تشخیص‌چهره رد می‌شویم. ویزای مهاجرت‌مان با استفاده از هوش مصنوعی بررسی و رد می‌شود. بعد از تقاضای وام از بانک، هوش مصنوعی اعتبارمان را بررسی می‌کند. باید سر سال مالی، مالیاتی‌ را تسویه کنیم که با کمک هوش مصنوعی محاسبه شده است و ده‌ها مثال دیگر.
درحقیقت دیگران در مورد نحوه استفاده از این تکنولوژی تصمیم گرفته‌اند و ما فقط شاهد نتایج آن هستیم. تصمیم‌گیرندگان اصلی، حکومت‌ها و شرکت‌های بزرگ هستند.
حتی اگر سراغ سازندگان بمب اتمی هم برویم، خواهند گفت نیت‌شان خیر بوده است. آنها دنبال سلاحی بوده‌اند که آلمان نازی را از پیگیری برنامه اتمی خود منصرف کند یا به جنگ جهانی پایان بخشد. شاید بهتر باشد به‌جای نگاه‌کردن به نیت‌ها، به این نگاه کنیم که یک تکنولوژی قرار است به چه هدفی برسد.
نتیجه تلاش‌های گروه اوپنهایمر، رسیدن به بمب هسته‌ای بود. چنین بمبی یک هدف بیشتر ندارد: ایجاد ویرانی وسیع. خاصیت بازدارندگی بمب هسته‌ای هم تنها ناشی از ماهیت ویرانگر و نابودکننده آن است. به‌این‌ترتیب بمب اتمی یک تکنولوژی بی‌طرف و خنثی نیست.
برای پی‌بردن به هدف هر سیستم مبتنی بر هوش مصنوعی، می‌توانیم بپرسیم؛ «چه کسی یا چه نهادی قرار است از منافع آن برخوردار شود؟». برای مثال تقاضای کارفرمایان برای نصب و راه‌اندازی تکنولوژی‌های مبتنی بر هوش مصنوعی، تجسس و ردگیری کارکنان در محل کار یا دورکاری، بسیار بالا رفته است. پلیس، دولت‌ها و کسب‌وکارها از تکنولوژی تشخیص چهره‌ برای زیرنظرداشتن و کنترل افراد استفاده می‌کنند.
در این مثال‌ها تکنولوژی هوش مصنوعی، ابزارهای اعمال‌قدرت هستند. صاحبان قدرت ممکن است نهادهای عمومی یا کارفرمایان خصوصی باشند. در این ساختار مخالفت افراد ضعیف‌تر در هرم قدرت به‌دلیل ترس از دست دادن شغل و اعتبار یا نداشتن قدرت چانه‌زنی و اثرگذاری، یا مطرح نمی‌شوند یا به جایی نمی‌رسند.
اگر بدانیم چه هدفی پشت خلق و تولید یک تکنولوژی‌ است، پیش‌بینی نتایج احتمالی استفاده از آن نیز زیاد سخت نیست. در عمل چنین نگاهی به تکنولوژی منجر به این می‌شود که برای جلوگیری از نتایج هولناک غیرقابل پیش‌بینی، تمهیدات قانونی اندیشیده شود؛ مقرراتی که در عصر تصمیم‌گیری‌های اتوماتیک هوش مصنوعی، به نمایندگی از عموم جامعه و طبقات ضعیف‌تر، از پایمال‌شدن حقوق اولیه افراد جلوگیری کند

دیدگاه

ویژه بیست‌و‌چهار ساعت
سرمقاله
آخرین اخبار