پارادوکس قدرت هوش مصنوعی
پدیدهای که بهترین فرصتها و بدترین خطرات را دارد، باید تحت حکمرانی جهانی قرار گیرد
پدیدهای که بهترین فرصتها و بدترین خطرات را دارد، باید تحت حکمرانی جهانی قرار گیرد
ایان برمر
تحلیلگر و بنیانگذار «گروه اوراسیا»
مصطفی سلیمان
بنیانگذار شرکت «انفلکشن اِیآی»
سال ۲۰۳۵ است و هوش مصنوعی همه جا هست. سیستمهای هوش مصنوعی بیمارستانها را اداره میکنند، خطوط هوایی را مدیریت میکنند و با یکدیگر در دادگاهها نبرد میکنند. تولید به سطوح بیسابقهای رسیده. کسبوکارهای بیشماری که پیشتر غیرقابلتصور بودند، با سرعت خیرهکننده در حال رشد هستند و پیشرفتهای عظیم در رفاه حاصل میکنند. محصولات، درمانها و نوآوریهای جدید هر روز به بازار میآیند و علم و فناوری شتاب تازهای میگیرند. با این حال، دنیا هم غیرقابلپیشبینیتر میشود و هم شکنندهتر. تروریستها راههای جدیدی میيابند تا با تسلیحات هوشمند در حال تکامل، جوامع را تهدید کنند و کارگران یقهسفید، گروهگروه کارشان را از دست میدهند. همین یک سال پیش، چنین سناریویی به نظر کاملاً تخیلی میآمد. امروز به نظر تقریباً اجتنابناپذیر است. سیستمهای هوش مصنوعی مولد همین حالا هم میتوانند واضحتر و قانعکنندهتر از بیشتر انسانها بنویسند و میتوانند تصاویر، آثار هنری و حتی کدهای رایانهای اصلی تولید کنند؛ براساس دستورات ساده زبانی. هوش مصنوعی مولد هم فقط نوک کوه یخ است. از راه رسیدن آن، یک «انفجار بزرگ» است، شروع انقلابی تکنولوژیک که دنیا را تغییر میدهد و به سیاست، اقتصاد و جامعه شکل جدیدی میدهد. همانند امواج پیشین فناوری، هوش مصنوعی رشد و فرصت خارقالعاده را در کنار اخلال و ریسک شدید دارد؛ اما برخلاف امواج پیشین، زلزلهای هم در ساختار و تعادل قدرت جهانی ایجاد میکند و تهدیدی برای جایگاه دولت-ملتها بهعنوان بازیگران اصلی ژئوپلیتیک در جهان است. تولیدکنندگان هوش مصنوعی، بپذیرند یا نه، خودشان بازیگران ژئوپلیتیک هستند و خودمختاری و استقلالی که در هوش مصنوعی دارند، نظم «قطبهای فناوری» را تعمیق میکند؛ نظمی که در آن شرکتهای فناوری قدرتی را در دامنه اختیار خود دارند که زمانی مخصوص دولت-ملتها بود. در یک دهه گذشته، شرکتهای بزرگ فناوری در عرصههای دیجیتالی که ساختهاند، عملا به بازیگرانی مستقل و خودمختار تبدیل شدهاند. هوش مصنوعی این روند را تسریع میکند و آن را بسیار فراتر از دنیای دیجیتال میگستراند. پیچیدگی فناوری و سرعت پیشرفتش، باعث میشود ایجاد قواعد مربوط به آن با سرعتی معقول برای دولتها تقریبا غیرممکن شود. اگر دولتها همین روزها به آن نرسند، ممکن است دیگر هرگز نرسند. خوشبختانه، سیاستگذاران سراسر جهان کمکم دارند بیدار میشوند، متوجه چالشی که هوش مصنوعی ایجاد میکند شدهاند و با این موضوع کلنجار میروند که چگونه بر آن حکمرانی کنند. در ماه مه ۲۰۲۳، گروه ۷، «فرایند هوش مصنوعی هیروشیما» را کلید زد، انجمن وقف هماهنگی حکمرانی در عرصه هوش مصنوعی. در ماه ژوئن، پارلمان اروپایی، پیشنویس قانون هوش مصنوعی اتحادیه اروپا را تصویب کرد، اولین تلاش جامع اتحادیه اروپا برای برپایی حفاظهایی حول صنعت هوش مصنوعی. در ماه ژوئیه هم، آنتونیو گوترش، دبیرکل سازمان ملل متحد، خواستار برپایی دیدهبان جهانی مقررات هوش مصنوعی شد. همزمان در ایالات متحده، سیاستمداران هر دو جناح خواستار اقدام برای تنظیم مقررات شدهاند؛ اما خیلیها با تد کروز، سناتور جمهوریخواه تگزاس، موافق هستند: کروز در ماه ژوئن چنین نتیجهگیریای را اعلام کرد که کنگره «نمیداند دارد چه غلطی میکند.» متأسفانه، بخش زیادی از گفتوگوها درباره حکمرانی عرصه هوش مصنوعی در دام یک دوراهی جعلی و خطرناک مانده است: استفاده از هوش مصنوعی بهعنوان اهرمی برای افزایش قدرت ملی یا خفهکردنش برای پرهیز از خطراتش. حتی آنهایی که به درستی مشکل را تشخیص میدهند، دارند سعی میکنند آن را با چپاندن هوش مصنوعی در چارچوبهای حکمرانی موجود یا تاریخی حل کنند؛ اما هوش مصنوعی را نمیتوان مثل فناوریهای پیشین تحت حکمرانی گرفت، مثل هیچ کدامشان؛ همین حالا هم دارد تصورات سنتی را از قدرت ژئوپلیتیکال تغییر میدهد.
گر بناست حکمرانی جهانی بر هوش مصنوعی ممکن شود، نظام بینالملل باید از مفاهیم سنتی خودمختاری عبور کند و از حضور شرکتهای فناوری بر سر میز گفتوگو استقبال کند. جامعه بینالمللی نیاز دارد، در فرضیات اساسیاش درباره نظم ژئوپلیتیکال تجدیدنظر کند. چالشی که به اندازه هوش مصنوعی، غیرعادی و فوری است، راهحلی نو لازم دارد. قبل از اینکه سیاستگذاران بتوانند شروع به تنظیم ساختار مقرراتی مناسبی کنند، نیاز خواهند داشت که درباره اصول اساسی نحوه حکمرانی بر هوش مصنوعی توافق کنند. برای شروع، نیاز خواهد بود، هرگونه چارچوب حکمرانی، محتاط، چابک، دربرگیرنده، نفوذناپذیر و هدفمند باشد. بر پایه این اصول، سیاستگذاران باید لااقل سه رژیم حکمرانی همپوشان ایجاد کنند: یکی برای مشخصکردن حقایق و مشاوره به دولتها درباره خطرات هوش مصنوعی، یکی برای پیشگیری از یک رقابت تسلیحاتی تمامعیار در این عرصه بین دولتها و یکی برای مدیریت نیروهای مخرب یک فناوری که با هیچکدام از آنچه جهان پیشتر دیده، شباهت ندارد.
سریعتر، بالاتر، قویتر
هوش مصنوعی متفاوت است؛ متفاوت با فناوریهای دیگر و متفاوت در اثرش بر قدرت. تنها، چالشهای سیاستگذاری ایجاد نمیکند. طبیعت ابرتکاملیاش حل آن چالشها را هم مدام سختتر و سختتر میکند. این پارادوکس قدرت هوش مصنوعی است. سرعت این پیشرفت، سرسامآور است. با هر مرتبه ارتقا، ظرفیتهایی غیرمنتظره سر بر میآورند. کمتر کسی پیشبینی کرده بود، تمرین با متون خام به مدلهای زبانی بزرگ اجازه خواهد داد، جملات منسجم، نو و حتی خلاقانه تولید کنند. از آن هم کمتر آنهایی بودند که انتظار داشتند مدلهای زبانی بتوانند آهنگ بسازند یا مسائل علمی را حل کنند؛ کاری که الان بعضیهایشان میتوانند بکنند. احتمالا بهزودی توسعهدهندگان هوش مصنوعی موفق خواهند شد سیستمهایی بسازند که ظرفیت ارتقای خود را دارند، پیچی کلیدی در مسیر این فناوری که باید همه را وادار به تأمل کند. بهعلاوه، مدلهای هوش مصنوعی دارند با منابع کمتر، کار بیشتر میکنند. ظرفیتهای پیشرفته پیشین، الان دارند روی سیستمهای کوچکتر، ارزانتر و دسترسیپذیرتر اجرا میشوند. مثل هر نرمافزار یا کد دیگر، کپی و اشتراکگذاری (یا دزدی) الگوریتمهای هوش مصنوعی بسیار آسانتر و ارزانتر از اموال فیزیکی است. خطرات گسترش و شیوع اینها واضح هستند. گرچه قویترین مدلها، همچنان برای اینکه کار کنند، به سختافزارهای سطح بالا نیاز دارند، نسخههای میانی میتوانند در رایانههایی اجرا شوند که میشود با چند دلار در ساعت اجارهشان کرد. بهزودی، چنین مدلهایی روی گوشیهای هوشمند اجرا خواهند شد. هیچ فناوری با این قدرت، به این سرعت و به این گستردگی، اینقدر در دسترس قرار نگرفته است.
هوش مصنوعی با دیگر فناوریها تفاوت دیگری هم دارد: اینکه تقریبا همهاش را میتوان «دوکاره» توصیف کرد، یعنی هم کاربرد نظامی دارد و هم غیرنظامی. بسیاری از سیستمها ذاتاً کلی هستند و در واقع، کلیبودن هدف اصلی بسیاری از شرکتهای هوش مصنوعی است. میخواهند برنامههایشان تا جایی که امکان دارد به تعداد بیشتری از افراد کمک کند؛ اما همان سیستمهایی که میتوانند ماشین برانند، میتوانند تانک برانند. برنامه هوش مصنوعی که ساخته شده تا بیماریها را تشخیص دهد، ممکن است بتواند یک بیماری جدید هم بسازد و آن را به سلاحی تبدیل کند. مرزهای بین کاربرد امن غیرنظامی با کاربرد ویرانگر نظامی، ذاتاً محو شدهاند و این تا حدودی توضیح میدهد چرا ایالات متحده صادرات پیشرفتهترین نیمهرساناها را به چین محدود کرده است. همه اینها در صحنه جهانی رخ میدهند: مدلهای هوش مصنوعی وقتی منتشر میشوند، میتوانند همه جا باشند و همه جا هم خواهند بود. فقط هم یک مدل با سوءنیت کافی خواهد بود تا آشوب به راه بیفتد. به این دلیل، تنظیم مقررات برای هوش مصنوعی را نمیتوان چهلتکه پیش برد. تنظیم مقررات برای هوش مصنوعی فقط در بعضی کشورها، فایدهای ندارد، اگر در بقیه کشورها بدون مقررات بماند. هوش مصنوعی میتواند بهسادگی گسترش یابد، از این رو، حکمرانی در این عرصه نمیتواند حفرهای داشته باشد. بهعلاوه، آسیبی که هوش مصنوعی ممکن است بزند، هیچ سقف واضحی ندارد، با اینکه انگیزههای ایجاد چنین سقفی (و منافع چنین کاری) همچنان بیشتر میشود. ممکن است هوش مصنوعی برای تولید و پخش اطلاعات غلط و مسموم، تخریب اعتماد اجتماعی و دموکراسی به کار گرفته شود؛ برای نظارت، بازیچهکردن و مقهورکردن شهروندان، تضعیف آزادیهای فردی و جمعی یا ایجاد سلاحهای قدرتمند دیجیتال یا فیزیکی که زندگی انسانها را تهدید میکنند. ممکن هم هست هوش مصنوعی میلیونها شغل را نابود کند، نابرابریهای موجود را بدتر کند و نابرابریهای تازهای بسازد؛ الگوهای تبعیضآمیز را تعمیق کند و تصمیمگیریها را با تشدید چرخههای بازخورد اطلاعات غلط، دچار اعوجاج کند؛ یا باعث تشدید غیرعمدی یا غیرقابلکنترل تنشهای نظامی شود که منجر به جنگ خواهد شد. دوره زمانی بزرگترین خطراتش هم معلوم نیست. ترویج آنلاین اطلاعات غلط، تهدید کوتاهمدت آشکاری است، به همان نسبت که جنگافروزی خودکار در کوتاهمدت محتمل به نظر میرسد. کمی دورتر در افق، وعده توانایی کلی ذهنی مصنوعی یا اِیجیآی در کمین است، نقطهای هنوز نامطمئن که در آن هوش مصنوعی در هر کاری از عملکرد انسانی فراتر میرود و نیز این خطر که ممکن است ایجیآی فراتر از کنترل انسانی، خود هدایت خود را به دست بگیرد، خود را تکثیر کند و خود را ارتقا دهد. (البته باید اذعان کرد که تصویر این خطر، حاصل گمانهزنی است.) لازم است همه این خطرها را از همان اول در معماری حکمرانی حوزه هوش مصنوعی به حساب آورد. هوش مصنوعی اولین فناوری نیست که چنین ویژگیهای قدرتمندی دارد، اما اولینی است که همهشان را ترکیب میکند. سیستمهای هوش مصنوعی مثل خودرو یا هواپیما نیستند که روی سختافزاری با قابلیت ارتقای پلهپله سوار شدهاند و هزینهآفرینترین ناکامیهایشان به شکل حوادث منفرد بروز میکند. مثل تسلیحات شیمیایی یا هستهای نیست که تولید و ذخیرهکردنشان سخت و گران است، چه برسد به تبادل یا استقرار مخفیانهشان. همچنان که فواید عظیمشان عیان میشود، سیستمهای هوش مصنوعی مدام بزرگتر، بهتر، ارزانتر و شایعتر خواهند شد. حتی ظرفیت شبهخودمختاری (یعنی توانایی دستیابی به اهدافی ملموس را با نظارت حداقلی انسانی) و به طور بالقوه، ارتقای خود را هم پیدا خواهند کرد. هر کدام از این ویژگیها، الگوهای سنتی حکمرانی را به چالش خواهند کشید. همهشان در کنار هم، این الگوها را به شکل ناامیدکنندهای ناکارآمد خواهند ساخت.
قدرتمندتر از آن است که بشود متوقفش کرد
تازه انگار اینها هم کافی نیستند. هوش مصنوعی با تغییر ساختار و تعادل قدرت جهانی، دقیقاً همان بستر سیاسی را که در آن تحت حکمرانی قرار میگیرد، پیچیدهتر میکند. هوش مصنوعی، فقط توسعه نرمافزار به همان روال مرسوم نیست. ابزار کاملا جدیدی برای ابراز قدرت است. در برخی موارد، اتوریتههای موجود را برهم خواهد زد. در موارد دیگر، آنها را محکمتر خواهد کرد. بهعلاوه، پیشرفتش را انگیزههایی پیش میبرد که نمیتوان در مقابلشان مقاومت کرد. هر کشوری، شرکتی و فردی نسخهای از اینها را خواهد خواست. درون کشورها، کسانی هوش مصنوعی را برای نظارت، فریب و حتی کنترل مردم به کار خواهند گرفت و هوش مصنوعی قدرت اینها را بیشتر خواهد کرد. این اتفاق جمعآوری و استفاده تجاری از اطلاعات شخصی را در دموکراسیها چندین برابر خواهد کرد و ابزارهای سرکوب دولتهای استبدادی را برای مقهورکردن جوامعشان، کارآتر خواهد کرد. برترییافتن در هوش مصنوعی، هدفی راهبردی برای هر دولتی خواهد شد که منابع رقابت را داشته باشد؛ راهبردی که با کمترین میزان خلاقیت و تخیل باشد، برای پیشروهای عرصه هوش مصنوعی پول خواهد پاشید یا تلاش خواهد کرد، ابررایانهها و الگوریتمها را بسازد و کنترل کند. راهبردهای ظریفتر، برتریهای خاص رقابتی را رشد خواهد داد، چنان که فرانسه بهدنبال چنین کاری است و با حمایت مستقیم از استارتآپهای هوش مصنوعی چنین خواهد کرد. بریتانیا هم با استفاده مؤکد از دانشگاههای کلاس جهانیاش و اکوسیستم سرمایهگذاری ریسکپذیرش چنین میکند. اتحادیه اروپا نیز این کار را با شکلدادن به گفتوگوی جهانی درباره تنظیم مقررات و تعیین هنجارها میکند. اکثریت قاطع کشورها نه پول و نه دانش فناوریاش را دارند که بخواهند برای رهبری و پیشگامی در عرصه هوش مصنوعی رقابت کنند. دسترسی آنها به هوش مصنوعی پیشگام به جای اینها در نتیجه روابطشان با چند شرکت و دولت تعیین خواهد شد که همین حالا ثروتمند و قدرتمند هستند. این اتکا، این تهدید را با خود دارد که عدم تعادل قدرت ژئوپلیتیکال فعلی را بیشتر کند. قدرتمندترین دولتها به دنبال کنترل ارزشمندترین منابع دنیا خواهند رفت و بار دیگر، کشورهای جنوب جهانی پشت سر آن خواهند ماند. اما در سمت دیگر طیف ژئوپلیتیکال، رقابت برای برتری در هوش مصنوعی، شدید خواهد بود. شاید در پایان جنگ سرد، کشورهای قدرتمند همکاری کردند تا ترسهای یکدیگر را آرام کنند و مسابقه قدرتی را که در حوزه فناوری بود و بالقوه میتوانست مخرب ثبات باشد، مهار کنند؛ اما محیط ژئوپلیتیکال پرتنش امروز، چنین همکاریای را بسیار سختتر میکند. هوش مصنوعی پتانسیل این را دارد که برتری قابلتوجهی را در عرصههای نظامی و اقتصادی در مقابل دشمنان ممکن کند. دو بازیگری که بیشترین اهمیت را دارند، یعنی چین و ایالات متحده، به درست یا غلط، هر دو توسعه هوش مصنوعی را بازی حاصل جمع صفری میبینند که به برنده، برتری راهبردی تعیینکنندهای را برای دهههای پیش رو خواهد داد. این داینامیک حاصل جمع صفر و فقدان اعتماد در هر دو سمت، به این معناست که پکن و واشنگتن به جای آرامکردن ماجرا، روی شتابدادن به توسعه هوش مصنوعی تمرکز کردهاند. از نگاه آنها، «توقف» در توسعه برای ارزیابی خطرها، چیزی که برخی از پیشگامان صنعت هوش مصنوعی خواستارش شدهاند، در حد خلع سلاح یکجانبهای، احمقانه است.اما این چشمانداز فرض را بر این میگذارد که دولتها میتوانند لااقل حدی از کنترل را روی هوش مصنوعی اعمال و حفظ کنند. شاید در چین چنین باشد؛ چینی که شرکتهای فناوریاش را در تاروپود دولت ادغام کرده است؛ اما در غرب و جاهای دیگر، بیشتر احتمال دارد هوش مصنوعی قدرت دولت را تضعیف کند تا تقویت. خارج از چین، در حال حاضر، مشتی شرکتهای بزرگ و تخصصی همه جنبههای این موج جدید فناوری را کنترل میکنند. انقلاب هوش مصنوعی، خارج از دولت رخ خواهد داد. بعضی از این چالشها، به میزان محدودی شبیه چالشهای قبلی فناوریهای دیجیتال هستند. بسترهای اینترنتی، شبکههای اجتماعی و حتی دستگاههایی مانند گوشیهای هوشمند، همهشان تا حدی در فضاهای محدودی که تحت کنترل سازندگانشان است، پیش میروند. زمانهایی که دولتها اراده سیاسیاش را فراهم کردهاند، توانستهاند رژیمهای مقرراتی را برای این فناوریها پیاده کنند؛ اما حدود یک دهه طول کشید تا چنین مقرراتی در اتحادیه اروپا عملی شود و هنوز هم در ایالات متحده، کاملاً تحقق نیافته است. هوش مصنوعی، بسیار سریعتر از آن پیش میرود که سیاستگذاران با سرعتهای معمولشان به آن واکنش نشان دهند. همه اینها یعنی لااقل در چند سال آینده، مسیر هوش مصنوعی را تصمیمات مشتی شرکت خصوصی تعیین خواهد کرد؛ به عبارت دیگر، اهالی فناوری و نه سیاستگذاران یا بروکراتها، اتوریتهشان را بر این نیرو اعمال خواهند کرد؛ نیرویی که ممکن است هم قدرت دولت-ملتها و هم نحوه ارتباطشان با یکدیگر را عمیقاً تغییر دهد.
هدف متحرک، سلاح در حال تکامل
دولتها همین حالا هم عقب افتادهاند. بیشتر پیشنهادات برای حکمرانی در عرصه هوش مصنوعی، با آن بهعنوان مسئلهای متعارف برخورد میکنند که میتواند با راهحلهای دولتمحور قرن بیستمی مهار شود. مصالحههایی که رهبران سیاسی دور یک میز به آن میرسند؛ اما این برای هوش مصنوعی جواب نخواهد داد. تلاشهای مقرراتی تا اینجای کار در مراحل اولیه شکلگیری هستند و هنوز ناکارآمدند. قانون هوش مصنوعی اتحادیه اروپا، جاهطلبانهترین تلاش برای حکمرانی بر هوش مصنوعی است، اما اعمال کامل آن تازه از سال ۲۰۲۶ شروع خواهد شد، یعنی زمانی که هوش مصنوعی آنقدر پیش خواهد رفت که دیگر شباهتی به امروز ندارد. بریتانیا رویکردی برای تنظیم مقررات هوش مصنوعی پیشنهاد داده که از این هم ملایمتر و داوطلبانهتر است و زور آن را ندارد که مؤثر باشد. هیچکدام از این ایدهها تلاشی برای حکمرانی بر توسعه و بهکارگیری هوش مصنوعی در سطح جهانی نمیکنند، یعنی کاری که برای موفقیت حکمرانی در عرصه هوش مصنوعی لازم خواهد بود. وعدههای داوطلبانه هم که برای احترامگذاشتن به خطوط راهنمای ایمنی هوش منصوعی داده شده، مانند آنهایی که در ماه ژوئیه، هفت توسعهدهنده پیشگام هوش مصنوعی دادهاند، لااقل مورد استقبال یکی از ماست (سلیمان)، اما جایگزینی برای مقررات لازمالاجرای قانونی در سطح ملی و بینالمللی نیستند. حامیان توافقات در سطح بینالمللی برای مهارکردن هوش مصنوعی، معمولا بهدنبال الگوی کنترل تسلیحات هستهای میروند؛ اما توسعه، سرقت و کپی سیستمهای هوش مصنوعی، بینهایت از تسلیحات هستهای آسانتر است؛ بهعلاوه، شرکتهای خصوصی کنترلشان میکنند، نه دولتها. برای اینکه حکمرانی بر هوش مصنوعی جواب بدهد، باید آن را با ذات خاص این فناوری تنظیم کرد. باید به همان اندازه فناوریای که میخواهد بر آن حکمرانی کند، نوآورانه و تکاملی باشد. هدف کلی هر نوع معماری مقرراتی هوش مصنوعی باید شناسایی و تخفیف خطراتش برای ثبات جهانی باشد، بدون اینکه نوآوریهای هوش مصنوعی و فرصتهای ناشی از آن را خفه کند.
اولین و شاید حیاتیترین اصل حکمرانی هوش مصنوعی، احتیاط است. محدودکردن حداکثری هوش مصنوعی به معنای از دست دادن مزایایش خواهد بود؛ اما آزادگذاشتن حداکثریاش هم به معنای قرارگرفتن در معرض خطر همه ضرراتش خواهد بود که بالقوه، فاجعهبارند. هوش مصنوعی میتواند دمکراسی را در برخی کشورها تضعیف کند و اعمال مقررات را در آنها سختتر کند. بهعلاوه، در موضوع اینکه میزان امنبودن یک سیستم هوش مصنوعی از یک کف معقول بالاتر است، مسئولیت اثبات به گردن توسعهدهنده و مالک آن است. نباید این مسئله فقط بر عهده دولتها باشد که وقتی مشکلات ظاهر میشوند، به آنها رسیدگی کنند. حکمرانی در عرصه هوش مصنوعی باید چابک هم باشد تا بتواند همینطور که هوش مصنوعی تکامل مییابد و خود را ارتقا میدهد، انطباق یابد و مسیر خود را اصلاح کند. باید تطابق نزدیکتری داشته باشد، با فناوریای که به دنبال کنترلش است. حکمرانی هوش مصنوعی باید همهشمول باشد و برای اعمال مقررات هوش مصنوعی در عمل، از همه بازیگران لازم دعوت کند که مشارکت کنند. دولتها نه هوش مصنوعی را میفهمند و نه کنترلش میکنند. شرکتها و توسعهدهندهها، این بازیگران غیردولتی، نباید همان حقوق و امتیازهای دولتها را داشته باشند؛ دولتهایی که در صحنه بینالمللی به این عنوان به رسمیت شناخته میشوند که اقداماتشان را به نمایندگی از شهروندانشان انجام میدهند. اما این شرکتها باید از طرفهای حاضر در نشستهای بینالمللی و امضاکنندگان هر گونه توافق در حوزه هوش مصنوعی باشند. شرکتهای فناوری، همیشه هم نباید نظر بدهند. بهتر است بعضی جنبههای حکمرانی هوش مصنوعی در اختیار دولتها بماند. دولتها باید تضمین کنند که شرکتهای فناوری، از نفوذشان درون نظام سیاسی برای پیشبرد منافع خودشان به قیمت صدمه به منافع عمومی، استفاده نخواهند کرد؛ اما الگویی همهشمول و با سهامداران متعدد برای حکمرانی، این را تضمین خواهد کرد: بازیگرانی که سرنوشت هوش مصنوعی را تعیین خواهند کرد، در فرایندهای تعیین قواعد شریک و به آنها پایبند خواهند بود. دانشمندان، اخلاقشناسان، اتحادیههای صنفی، نهادهای مدنی و دیگرانی که دانش، قدرت یا سود و زیانی در نتایج اقدامات هوش مصنوعی دارند، باید بر سر میز حاضر باشند. حکمرانی هوش مصنوعی باید تا حد امکان، بدون درز و حفره هم باشد. تنها یک الگوریتم گریزان میتواند آسیبهای بیحساب بزند. کارآیی حکمرانی جهانی در هوش مصنوعی را کشور، شرکت یا فناوریای تعیین میکند که بدترین حکمرانی را داشته باشد. علاوهبر پوشش تمام جهان، حکمرانی هوش مصنوعی باید تمام زنجیره تأمین را هم پوشش دهد. چنین نفوذناپذیریای تضمین خواهد کرد هیچ منطقه خاکستریای در مقررات برای سوءاستفاده نیست. در نهایت، حکمرانی هوش مصنوعی باید هدفمند باشد و نه اینکه یک پاسخ برای همه حالتها داشته باشد. یک ابزار منفرد حکمرانی، برای رسیدگی به منشأهای متنوع خطرات هوش مصنوعی کافی نیست.برای همه اینها، فهم عمیق و دانش بهروز از فناوریهای مربوطه لازم است. عملا، لازم خواهد بود یک نظام حسابرسی باشد که نهتنها از راه دور، ظرفیتها را رصد کند، بلکه دسترسی مستقیم به هسته مرکزی فناوریها هم داشته باشد. فقط چنین ابزارهایی میتوانند تضمین کنند که کارکردهای جدید هوش مصنوعی، پیشدستانه ارزیابی میشوند. به عبارت دیگر، حکمرانی هدفمند، باید حکمرانی با اطلاعات درست و کافی باشد.
ضرورتهای رویکرد محتاطانه به فناوری
بر پایه این اصول، باید حداقل سه رژیم حکمرانی هوش مصنوعی برپا شوند. رژیم اول، روی پیداکردن حقایق تمرکز خواهند کرد و شکل یک نهاد علمی جهانی را خواهد داشت که به دولتها و نهادهای بینالمللی مشورتهایی عینی بدهد، درباره سوالاتی که حتی در این حد پایهای که هوش مصنوعی چیست و چه چالشهای سیاستگذاری ایجاد میکند. اگر نشود روی تعریف هوش مصنوعی یا دامنه بالقوه آسیبهایش توافق کرد، سیاستگذاری مؤثر غیرممکن خواهد بود. این نهاد باید پذیرش جهانی و استقلال علمی و ژئوپلیتیک داشته باشد. گزارشهایش هم میتوانند اطلاعات لازم را در دسترس طرفهای مذاکرات چندجانبه و گفتوگو با چندین ذینفع قرار دهد.
دنیا باید راهی برای مدیریت تنشها بین قدرتهای بزرگ هوش مصنوعی هم داشته باشد و از گسترش سیستمهای پیشرفته خطرناک هوش مصنوعی جلوگیری کند. مهمترین رابطه جهانی در حوزه هوش مصنوعی، رابطه بین ایالات متحده و چین است. رقابت کنترلنشده در حوزه هوش مصنوعی، میتواند همه امیدها را برای شکلدادن به یک اجماع بینالمللی روی حکمرانی هوش مصنوعی ناامید کند. یکی از حوزههایی که ممکن است واشنگتن و پکن همکاری در آن را مفید ببینند، کاهش سرعت گسترش سیستمهای قدرتمندی است که میتوانند اتوریته دولت-ملتها را به خطر بیندازند. واشنگتن و پکن باید به دنبال ایجاد حوزههای اشتراک و حتی حفاظهایی باشند که یک طرف سوم آنها را پیشنهاد و بر آنها نظارت میکند. اینجا میشود رویکردهای نظارت و تأییدی را که اغلب در رژیمهای کنترل تسلیحات پیدا میشوند بر مهمترین بخشهای هوش مصنوعی اعمال کرد.
اما از آنجا که بیشتر حوزههای هوش مصنوعی، همین حالا هم مرکزیتزدایی شدهاند، موضوع بیش از آنکه حوزه اختصاصی دو ابرقدرت باشد، مسئلهای از مشترکات جهانی است. ذات توسعه هوش مصنوعی و ویژگیهای اساسی این فناوری، از قبیل گسترش متنباز آن، این است که در انحصار محدوده قدرتهای بالادستی و مرکزی نیست. این ذات احتمال استفاده از آن بهعنوان یک سلاح را از سوی مجرمان سایبری، بازیگرانی دارای حمایت دولتها و کسانی که بهتنهایی و مستقلاً دست به خرابکاری میزنند، بیشتر میکند. به این دلیل، دنیا به رژیم سومی برای حکمرانی در حوزه هوش مصنوعی نیاز دارد که بتواند وقتی اخلالهای خطرناک رخ میدهد، واکنش نشان دهد. برای الگوهای این زمینه، سیاستگذاران میتوانند به رویکردی نگاه کنند که نهادهای مسئول مسائل مالی برای حفظ ثبات مالی در جهان به کار گرفتهاند. این رژیم با بخش خصوصی هم مستقیم در تعامل خواهد بود. چنین نهادی، با اختیاراتی که ریشه در حمایت دولتها دارد، جایگاه خوبی خواهد داشت تا مانع شود، بازیگران جهانی بخش فناوری رانتخواری کنند یا پشت کشور محل استقرار رسمی شرکتشان پنهان شوند.
رژیمی که برای حفظ ثبات ژئوتکنولوژیکال طراحی شده باشد، یک خلأ خطرناک در صحنه فعلی قانون و مقررات را هم پر خواهد کرد: مسئولیت حکمرانی بر هوش مصنوعی متن باز. این میزان از سانسور آنلاین لازم خواهد بود. اگر کسی الگوی بسیار خطرناک را در فضای اینترنت بارگذاری کند، این نهاد باید اختیار مشخص و تواناییاش را داشته باشد که آن را حذف کند یا مقامات کشور مربوطه را برای این کار بفرستد. این فرایند شامل استفاده از ابزارهای سایبری مداخلهگرانه هم میشود. این حوزه، حوزه دیگری برای همکاری دوجانبه بالقوه بین چین و ایالات متحده است. ضروری خواهد بود هر کدام از این رژیمها، جهانی عمل کنند. در عین حال، اینها بههیچوجه تنها نهادهای لازم نخواهند بود. دیگر سازوکارهای مقرراتی هم باید در چند سال آینده در عرصه هوش مصنوعی به کار گرفته شوند، از قبیل شناخت مشتری، استانداردهای شفافیت، نیاز به مجوز، پروتکلهای آزمایش امنیت و فرایندهای ثبت و تأیید محصولات.
ترویج بهترینها، ممانعت از بدترینها
پیادهسازی هیچکدام از این راهحلها آسان نخواهد بود. سروصداها و حرفوسخنهای بسیاری از رهبران جهان درباره نیاز به تعیین مقررات برای هوش مصنوعی به گوش میرسد، اما بهرغم همه اینها، همچنان اراده سیاسی برای این کار نیست. الان، از میان گروههای قدرتمندی که در این باره رأی و نظر میدهند، تعداد کمی مدعی مهار هوش مصنوعی هستند و همه عوامل انگیزشی هم، طرف ادامه انفعال هستند؛ اما اگر رژیم حکمرانی هوش مصنوعی، به شکلی که اینجا توصیف شد، به خوبی طراحی شود، میتواند مناسب همه طرفهای ذینفع باشد و اصول و ساختارهایی را برقرار و مستقر کند که بهترینهای عرصه هوش مصنوعی را ترویج و ارتقا دهد، درحالیکه مانع بدترینهایش میشود. جایگزین این ایده، یعنی هوش مصنوعی مهارنشده، نهتنها خطراتی غیرقابلقبول برای ثبات جهانی ایجاد خواهد کرد، بلکه برای کسبوکارها هم مضر خواهد بود و خلاف منافع ملی همه کشورها است.
یک رژیم قدرتمند حکمرانی بر هوش مصنوعی، هم خطرات اجتماعی هوش مصنوعی را کاهش خواهد داد و هم تنشها بین چین و ایالات متحده را کمتر خواهد کرد، به این طریق که گستره نقشآفرینی هوش مصنوعی را به عنوان صحنه و ابزاری برای رقابت ژئوپلیتیک، کم خواهد کرد. چنین رژیمی، دستاورد دیگری هم خواهد داشت که از این هم عمیقتر و ماندگارتر خواهد بود: الگویی برپا خواهد کرد برای نحوه رسیدگی به دیگر فناوریهای مخرب در راه. هوش مصنوعی میتواند کاتالیزوری منحصربهفرد برای تغییر باشد، اما بههیچوجه آخرین فناوری مخرب نخواهد بود که بشریت با آن مواجه میشود. کوانتومکامپیوترها، فناوریهای زیستی، فناوریهای نانو و رباتیک هم پتانسیل این را دارند که از اساس شکل جدید به دنیا بدهند. حکمرانی موفق بر هوش مصنوعی به دنیا کمک خواهد کرد بر آن فناوریها هم حکمرانی کنند.
قرن بیستویکم، چند چالش به سختی هوش مصنوعی و چند فرصت به امیدوارکنندگی هوش مصنوعی بر سر راه خواهد گذاشت. در قرن پیشین، سیاستگذاران شروع به برپایی معماری حکمرانی جهانی کردند و امید داشتند این معماری، از پس کارهای لازم در آن دوران بر خواهد آمد. حالا، باید معماری تازهای برای حکمرانی بسازند تا از پس نیرویی بربیایند که مهیبترین و بهصورت بالقوه تعیینکنندهترین نیروی این عصر خواهد بود. سال ۲۰۳۵ همین نزدیکیهاست. وقتی برای تلفکردن نداریم.