درسهای اوپنهایمری برای قانونمندکردن هوش مصنوعی
آمنه دهشیری پژوهشگر حقهای دیجیتال و هوش مصنوعی فیلم «اوپنهایمر»، آخرین ساخته کریستوفر نولان، در روزهایی اکران شد که هوش مصنوعی با شتابی فراتر از انتظار در حا
آمنه دهشیری
پژوهشگر حقهای دیجیتال و هوش مصنوعی
فیلم «اوپنهایمر»، آخرین ساخته کریستوفر نولان، در روزهایی اکران شد که هوش مصنوعی با شتابی فراتر از انتظار در حال پیشرفت و فراگیرشدن بود. درست دوماه قبل از اکران فیلمی که نام پدر بمب اتمی را بر خود داشت، جفری هینتون، پدر هوش مصنوعی به نشانه پشیمانی از نقشاش در ایجاد هوش مصنوعی، از گوگل استعفا داد.
کافی است میزان پیشرفت سیستمها و خدمات مبتنی بر هوش مصنوعی از نوامبر سال 2022 که روباتچت جیپیتی معرفی شد را با اکنون مقایسه کنیم. کیفیت و تنوع کاربردها ما را متقاعد میکند که با تکنولوژیای مواجهایم که در مدتزمان کوتاهی، زندگی بشر را به قبل و بعد از خودش تقسیم کرده است.
بهعبارتی، آخرین فیلم نولان در لحظهی اوپنهایمری تکنولوژی هوش مصنوعی اکران شد. از تعبیر «لحظه اوپنهایمری» برای توصیف بزنگاههایی میتوان استفاده کرد که خالقان یک تکنولوژی مهم میفهمند، آنچه آفریدهاند ممکن است نتایج هولناکی برای بشر داشته باشد. درست شبیه لحظهی روبهرویی ویکتور فرانکنشتاین با هیولایش.
خط نامرئی دیگری که داستان فیلم «اوپنهایمر» را به جهان سال 2023 وصل میکند، این پرسش است:
«آیا تکنولوژی بیطرف است؟»
آیا سازندگان بمب اتم هم بهخاطر کشتهشدن چندصد هزار نفر در ژاپن، مسئولیت اخلاقی دارند یا تمام مسئولیت بر دوش کسانی است که بمبها را روی دو شهر هیروشیما و ناکازاکی انداختند؟
کسانی که به اردوگاه بیطرفی تکنولوژی تعلق دارند بهطور سنتی از مثال معروف چاقو استفاده میکنند: «با چاقو هم میتوان میوه پوست کند، هم آدم کشت.» بهنظر آنها، تکنولوژی فقط یک ابزار است. این انسان است که تصمیم میگیرد ابزارها را کجا و به چه منظوری بهکار ببرد.
اما آیا واقعاً تصمیمگیری در مورد نقش و کارکرد هوش مصنوعی در زندگی هرروزه، با ما انسانهای معمولی است؟ از صبح که از خواب بیدار میشویم گوشی، اعمال حیاتی بدنمان را با استفاده از هوش مصنوعی زیر نظر دارد. در مسیرمان از خانه تا محل کار از جلوی چند دوربین تشخیصچهره رد میشویم. ویزای مهاجرتمان با استفاده از هوش مصنوعی بررسی و رد میشود. بعد از تقاضای وام از بانک، هوش مصنوعی اعتبارمان را بررسی میکند. باید سر سال مالی، مالیاتی را تسویه کنیم که با کمک هوش مصنوعی محاسبه شده است و دهها مثال دیگر.
درحقیقت دیگران در مورد نحوه استفاده از این تکنولوژی تصمیم گرفتهاند و ما فقط شاهد نتایج آن هستیم. تصمیمگیرندگان اصلی، حکومتها و شرکتهای بزرگ هستند.
حتی اگر سراغ سازندگان بمب اتمی هم برویم، خواهند گفت نیتشان خیر بوده است. آنها دنبال سلاحی بودهاند که آلمان نازی را از پیگیری برنامه اتمی خود منصرف کند یا به جنگ جهانی پایان بخشد. شاید بهتر باشد بهجای نگاهکردن به نیتها، به این نگاه کنیم که یک تکنولوژی قرار است به چه هدفی برسد.
نتیجه تلاشهای گروه اوپنهایمر، رسیدن به بمب هستهای بود. چنین بمبی یک هدف بیشتر ندارد: ایجاد ویرانی وسیع. خاصیت بازدارندگی بمب هستهای هم تنها ناشی از ماهیت ویرانگر و نابودکننده آن است. بهاینترتیب بمب اتمی یک تکنولوژی بیطرف و خنثی نیست.
برای پیبردن به هدف هر سیستم مبتنی بر هوش مصنوعی، میتوانیم بپرسیم؛ «چه کسی یا چه نهادی قرار است از منافع آن برخوردار شود؟». برای مثال تقاضای کارفرمایان برای نصب و راهاندازی تکنولوژیهای مبتنی بر هوش مصنوعی، تجسس و ردگیری کارکنان در محل کار یا دورکاری، بسیار بالا رفته است. پلیس، دولتها و کسبوکارها از تکنولوژی تشخیص چهره برای زیرنظرداشتن و کنترل افراد استفاده میکنند.
در این مثالها تکنولوژی هوش مصنوعی، ابزارهای اعمالقدرت هستند. صاحبان قدرت ممکن است نهادهای عمومی یا کارفرمایان خصوصی باشند. در این ساختار مخالفت افراد ضعیفتر در هرم قدرت بهدلیل ترس از دست دادن شغل و اعتبار یا نداشتن قدرت چانهزنی و اثرگذاری، یا مطرح نمیشوند یا به جایی نمیرسند.
اگر بدانیم چه هدفی پشت خلق و تولید یک تکنولوژی است، پیشبینی نتایج احتمالی استفاده از آن نیز زیاد سخت نیست. در عمل چنین نگاهی به تکنولوژی منجر به این میشود که برای جلوگیری از نتایج هولناک غیرقابل پیشبینی، تمهیدات قانونی اندیشیده شود؛ مقرراتی که در عصر تصمیمگیریهای اتوماتیک هوش مصنوعی، به نمایندگی از عموم جامعه و طبقات ضعیفتر، از پایمالشدن حقوق اولیه افراد جلوگیری کند