ضرورت همکاری راهبردی چین و آمریکا
جیک سالیوان، مشاور سابق امنیت ملی آمریکا: در نوامبر ۲۰۲۴، صدور نخستین بیانیه مشترک میان جو بایدن و شیجینپینگ، نقطه عطفی در مدیریت خطرات امنیت ملی ناشی از هوش مصنوعی بود.
جیک سالیوان، مشاور سابق امنیت ملی آمریکا: در نوامبر ۲۰۲۴، صدور نخستین بیانیه مشترک میان جو بایدن و شیجینپینگ، نقطه عطفی در مدیریت خطرات امنیت ملی ناشی از هوش مصنوعی بود. توافق واشنگتن و پکن بر سر «لزوم حفظ کنترل انسانی بر تصمیمگیری در استفاده از تسلیحات هستهای»، شاید در نگاه نخست دستاوردی بدیهی و دیپلماتیک به نظر برسد؛ چراکه سپردن دکمه هستهای به ماشین، برای هر عقل سلیمی غیرمنطقی است. اما واقعیت این است که در تعامل با چین، بهویژه در حوزه امنیت کلان، هیچ دستاورد آسانی وجود ندارد.
بدبینی ذاتی پکن نسبت به طرحهای کاهش ریسک آمریکا و همسویی روسیه با این رویکرد، حصول این توافق را دشوار کرده بود. تحقق این بیانیه بیش از یک سال مذاکره نیاز داشت، اما نتیجه نهایی ثابت کرد که دو ابرقدرت حتی در اوج رقابت تکنولوژیک، قادرند وارد فاز مدیریت ریسک سازنده شوند.
پیش از این نیز در اوایل سال ۲۰۲۴، دیپلماتهای دو کشور در ژنو نشستی بیسابقه برای شناسایی خطرات هوش مصنوعی برگزار کردند. اگرچه آن نشست دستاورد فوری نداشت، اما گامی حیاتی برای آغاز گفتوگو بود. اکنون با شتابگیری توسعه هوش مصنوعی در بخشهای نظامی و غیرنظامی، تداوم این دیپلماسی در سطوح عالی اجتنابناپذیر است؛ زیرا مخاطرات این فناوری واقعی، فزاینده و گریزناپذیرند.
ماهیت این تهدیدات بسیار گسترده است. با اشاعه قابلیتهای هوش مصنوعی، بازیگران غیردولتی و گروههای تروریستی میتوانند از آن برای حملات سایبری به زیرساختهای حیاتی، تولید تسلیحات بیولوژیک گریزپا و راهاندازی کمپینهای اطلاعات نادرست بهره گیرند. علاوه بر این، استفاده ارتشهای آمریکا و چین از هوش مصنوعی، حلقههای تصمیمگیری را کوتاهتر کرده و خطر تشدید ناخواسته درگیریها را افزایش میدهد. در عرصه اقتصادی نیز، الگوریتمهای هوشمند بدون نظارت کافی میتوانند منجر به سقوط بازارهای مالی شوند. در افق دورتر نیز، خطر ظهور یک سیستم هوش مصنوعی قدرتمند اما «ناهمسو» با اهداف بشری وجود دارد که میتواند پیامدهای هولناکی داشته باشد.
البته تعامل دیپلماتیک هرگز به معنای توقف رقابت نیست. من به عنوان مشاور امنیت ملی در دولت بایدن، همواره تلاش کردم تا اطمینان یابم ایالات متحده پیشتازی خود را در این فناوری حفظ میکند. اقداماتی نظیر کنترلهای صادراتی سختگیرانه چین بر عناصر کمیاب، نشان میدهد که این رقابت تا چه حد جدی و نفسگیر است.
اما دقیقاً همین شدت رقابت است که دیپلماسی را حیاتی میسازد. پیشروی یکجانبه بدون گفتوگو درباره خطرات یا فرصتهای مشترک (مانند تغییرات اقلیمی و سلامت عمومی)، اقدامی غیرمسئولانه خواهد بود. اگرچه گفتوگوهای غیررسمی دانشگاهی (مسیر دوم) ارزشمندند، اما با توجه به سرعت خیرهکننده تکنولوژی، هیچ جایگزینی برای تعامل مستقیم «دولت با دولت» وجود ندارد.
بسیاری از تحلیلگران وضعیت کنونی را با دوران کنترل تسلیحات هستهای در جنگ سرد مقایسه میکنند. این قیاس از آن جهت که ابرقدرتها مسئولیت مدیریت خطرات فناوریهای ویرانگر را دارند، صحیح است؛ اما هوش مصنوعی چالشهایی بهمراتب پیچیدهتر از سلاح هستهای ایجاد میکند که نیازمند رویکردهای نوآورانه است.
تفاوتهای بنیادینی در این میان وجود دارد: نخست، دشواری راستیآزمایی است؛ شمارش کلاهکهای موشکی ممکن است، اما شمارش و نظارت بر الگوریتمها و قابلیتهای پنهان آنها تقریباً ناممکن است. دوم، مسئله استفاده دوگانه در هوش مصنوعی بسیار پیچیدهتر است. برخلاف انرژی هستهای که مرز نسبتاً روشنی میان کاربرد صلحآمیز و نظامی دارد، یک مدل هوش مصنوعی واحد میتواند هم برای تحقیقات علمی و هم برای حملات مرگبار استفاده شود.
سوم، تنوع تهدیدات است؛ در حالیکه کنترل تسلیحات هستهای بر تهدیدات دولت علیه دولت متمرکز بود، هوش مصنوعی شامل تهدیدات بازیگران غیردولتی و حتی خطرات ذاتی خودِ سیستم (ناهمسویی) نیز میشود. چهارم، نقش بخش خصوصی است؛ برخلاف برنامههای هستهای دولتی، توسعه هوش مصنوعی توسط شرکتهای متعدد خصوصی هدایت میشود که دایره بازیگران را گستردهتر میکند. و پنجم، عدم قطعیت در سرعت پیشرفت؛ برخلاف سلاح هستهای که ماهیت تهدیدش مشخص بود، در مورد هوش مصنوعی هنوز توافقی وجود ندارد که آیا با یک فناوری متعارف روبهرو هستیم یا انفجار «ابرهوشمندی» در چند سال آینده رخ خواهد داد.