هراسِ جهـاني
نگرانی از مضرات احتمالی هوش مصنوعی باعث شد تا شورای امنیت سازمانملل جلسه فوقالعادهای را برگزار کند
نگرانی از مضرات احتمالی هوش مصنوعی باعث شد تا شورای امنیت سازمانملل جلسه فوقالعادهای را برگزار کند
«کلود شانون»، پدر نظریه اطلاعات در دهه50 میلادی مقاله برنامهنویسی کامپیوتر برای بازی شطرنج را منتشر کرد که اولین مقالهای بود که درباره طراحی یک برنامه کامپیوتری برای بازی شطرنج صحبت کرد. همچنین جان مککارتی و تیم مردان، طرحی برای ورکشاپی بهنام «هوش مصنوعی» ارائه کردند. استفاده از این کلمه پس از ۱۹۵۶ که ورکشاپ برگزار شد، بهطور رسمی به مک کارتی نسبت داده میشود. اما حالا هوش مصنوعی به درجهای از پیشرفت رسیده که انسانها بهدلایل مختلف احساس خطر میکنند. حالا با پدیدهای روبهرو هستیم که نهتنها به تمام سوالها در هر حوزهای پاسخ میدهد بلکه خودش نیز طرحسوال میکند تا انسان را به چالش بکشد. نگرانی در این زمینه بهحدیاست که شورای امنیت سازمانملل جلسهای ترتیب داده تا با تصویب قوانینی، جلوی برخی اتفاقات ناگوار که معلول پیشرفت چتجیپیتی است را بگیرد. در این گزارش با دکتر رضا شاهنظر، برنامهنویس و پژوهشگر فناوری گفتوگو کردیم تا نظر ایشان را درخصوص «رگولاتوری هوش مصنوعی» جویا شویم.
فناوریای که جدید نیست
هرچند ممکن است هوش مصنوعی بسیار رازآمیز دیده شود، اما وقتی دانش بیشتری درباره آن بهدست میآوریم، درک آن سادهتر از چیزی خواهد بود که فکر میکردیم. در دهه60 میلادی جهش قابلملاحظهای در هوش مصنوعی رخ داد. هم در فیلمها و سریالها، هم در واقعیت دانشمندان حوزه فناوری سعی کردند این موضوع را با جدیت بیشتری پیگیری کنند. ساخت زبانهای جدید برنامهنویسی، رباتها و آدمهای ماشینی، پژوهشهای تحقیقاتی و فیلمهایی که افرادی را نشان میداد که با هوش مصنوعی ساخته شدهاند، محبوبیت بیشتری یافت. این روند تا حد زیادی اهمیت هوش مصنوعی در نیمهدوم قرن بیستم را افزایش داد. ربات «شیکی» که توسط «چارلز روزن» با کمک ۱۱نفر دیگر طراحی شد، اولین ربات متحرک عمومی بود. این ربات میتوانست تا حدود بسیار کمی، بدون اراده و دستور انسان کار کند. در سال 2000 پروفسور «سینتیا بریزیل»، ربات «کیسمت» را طراحی کرد که میتوانست احساسات را با صورت خود تشخیص داده و شبیهسازی کند. این ربات شکلی شبیه صورت انسان همراه با چشم، لب، پلک و ابرو داشت.
هشدار بزرگان صنعت و دانش
هوش مصنوعی جدید مایکروسافت (بینگ) که بهطور رسمی ژانویه 2023 وارد بازار فناوری شد، میتواند بهطرز بسیار هوشمندانهای با استفاده از تکنولوژی روز دنیا قدرت یادگیری دانشآموزان را در بهبود مهارتهای گفتاری و حل مسائل ریاضی تا حد بسیار زیادی افزایش دهد. مایکروسافت همواره از پیشروان استفاده و تولید هوش مصنوعی در زمینههای مختلف بوده و با توسعه ابزارهای متنوع و کاربردی، سهم زیادی در پیشرفت آن داشته است. مایکروسافت با تمام توان در تلاش است تا از مزایای ابزارهای هوش مصنوعی نهایتاستفاده را ببرد. این شرکت که بهتازگی چتبات به موتور جستوجوی بینگ اضافه کرده، ابزارهای آموزشی هیجانانگیزی بر پایهی هوش مصنوعی بهنمایش گذاشته است. مایکروسافت از ابزارهای موردبحث بهعنوان «شتابدهندهی یادگیری» یاد میکند. بهگفتهی مایکروسافت، ابزارهای آموزشی این شرکت مهارتهای گفتاری و ریاضی دانشآموزان را تقویت میکنند و همزمان باعث سادهتر شدن کار معلمها میشوند. مایکروسافت با این ابزارها، کودکان را برای دنیایی که از لحاظ تکنولوژیک پیشرفتهتر از همیشه میشود، آماده میکند. بااینحال بیل گیتس، بنیانگذار و مدیرعامل سابق، هرچند نقش بسزایی در مدرنکردن «هوش مصنوعی» داشته اما در تازهترین اظهارنظر خود درخصوص مضرات هوش مصنوعی این اخطار را داد که ممکن است هوش مصنوعی بهمرور زمان بسیار خطرناک باشد هرچند در بخشهای مختلف میتواند قابلکنترل باشد. گیتس البته نسبت به برخی چالشهای ناشی از پذیرش این فناوری مانند تغییر نحوه کار انسانها، توهم یا تمایل مدلهایی مانند ChatGPT به ساخت حقایق، اسناد و افراد ابراز نگرانی کرده است. او برای مثال به دیپفیک اشاره کرده که با کمک آنها میتوان برای اهداف کلاهبرداری، هویت اشخاص دیگر را جعل کرد. او همچنین نگرانی خود نسبت به قابلیت مدلهای هوش مصنوعی برای جستوجوی آسیبپذیریهای نرمافزاری مورد نیاز برای نفوذ به رایانهها را ابراز کرده است. گیتس برای مقابله با چنین خطراتی، تشکیل یک نهاد نظارتی جهانی مانند آژانس بینالمللی انرژی اتمی را پیشنهاد کرده است. همچنین ایلان ماسک، مالک فعلی توئیتر معتقد است هوش مصنوعی میتواند یکی از علل اصلی جنگ جهانی سوم باشد و در آینده نزدیک اگر اینترنت بهدلیل پیشرفتهای قابلتوجه هوش مصنوعی قطع شد، تعجب نکنید. اگر به عقب برگردیم نیز استیون هاوکینگ نیز هشدار داده بود، هوش مصنوعی در آینده جای انسان را روی کره زمین خواهد گرفت و باید چنین «علمی» ازسوی انسان کنترل، مدیریت و محدود شود.
هشدار سازمان ملل
هشدار افراد خبره در حوزه فناوری و البته کسانی که خودشان در پیشرفت «هوش مصنوعی» نقش اساسی ایفا کردند، باعث شده تا کار به شورای امنیت سازمانملل بکشد. علت؟ جلوگیری از گسترش مخرب و البته منع سوءاستفاده از هوش مصنوعی. انگلیس در ماه جاری میلادی ریاست دورهای شورای امنیت سازمان ملل را برعهده دارد و خواهان نقشی در رهبری جهانی در زمینه قانونمندسازی هوش مصنوعی است. در ماه ژوئن آنتونیو گوترش، دبیرکل سازمانملل از پیشنهاد برخی مدیران شرکتهای هوش مصنوعی برای ایجاد یک سازمان ناظر بر این فناوری مانند آژانس بینالمللی اتمی پشتیبانی کرد. او هشدار داد: «استفاده بدخواهانه از سیستمهای هوش مصنوعی در مقیاسی غیرقابل تصور، میتواند برای اهداف تروریستی، جنایی یا دولتی استفاده شده و منجر به افزایش میزان مرگ و ویرانی و آسیبهای روانی عمیق شود.»
دکتر رضا شاهنظر، متخصص قلب و برنامهنویس در گفتوگو با «هممیهن» درخصوص اینکه آیا میتوان در آینده، هوش مصنوعی را رگولاتوری کرد، اظهار داشت: «دولتمردان میتوانند قانون را وضع کنند اما چگونه اجرا کردن آن مهم است. نکته مهمی که هوش مصنوعی دارد این است که برخلاف تصور عموم که فکر میکنند همه مردم میتوانند از آن استفاده کنند، واقعیت این است که توسعه هوش مصنوعی نیازمند یک توانمندی سختافزاری جدی و ویژهای است که در اختیار هر شخص یا دولتی نیست. به همین دلیل است که شرکتهای بزرگی مثل گوگل و متا که به لحاظ توانمندی اقتصادی رتبههای برتر را دارند، میتوانند به لحاظ تکنیکال قضیه را مدیریت کنند. نکته دیگر این است که به همان نسبت که در مورد رگولاتوری صحبت میکنیم، میخواهیم در درجه اول با شرکتها و برندهایی که به لحاظ مالی قدرت دارند، برخورد یا مقابله کنیم. درواقع مشابه مقابله با یک برخورد نظامی که بهمرور مناقشات جدیدی در کنارش شکل میگیرد. بزرگترین مشکل اما این است که افرادی که باید جلوی برهم خوردن نظم جهانی را بگیرند توان مقابله با شرکتهای بزرگ را ندارند. اتفاق اخیر درخصوص هوش مصنوعی شباهت زیادی به حساسیت روی انرژی هستهای دارد. به همین دلیل سازمانملل ورود کرده تا اجراییشدن آن در آینده نزدیک با چالش منفی روبهرو نشود.» نگرانی اصلی اما این است که بر فرض قوانین سفتوسختی نیز در سازمانملل درمورد هوش مصنوعی تصویب شود، اجراییشدن آن تا چه میزان امکانپذیر خواهد بود؟ دکتر شاهنظر چنین پاسخ میدهد: «اینکه ما انتظار داشته باشیم یکسری قوانین وضع و بعد از آن رعایت شود، انتظار بیهودهای است.»