هوش مصنوعی و سیاستبینالملل
اجلاس آینده تأثیر هوش مصنوعی (دهلی نو، فوریه ۲۰۲۶) میتواند محملی برای پیشبرد گفتوگوهای بینالمللی درباره اعتماد و ارزیابی هوش مصنوعی، و ایجاد هماهنگی جهانی برای مدیریت هوش مصنوعی با دو هدف موازی کاهش خطرات و تسهیل پذیرش گسترده آن باشد.

اجلاس آینده تأثیر هوش مصنوعی (دهلی نو، فوریه ۲۰۲۶) میتواند محملی برای پیشبرد گفتوگوهای بینالمللی درباره اعتماد و ارزیابی هوش مصنوعی، و ایجاد هماهنگی جهانی برای مدیریت هوش مصنوعی با دو هدف موازی کاهش خطرات و تسهیل پذیرش گسترده آن باشد. دولتها باید بین ایمنی و پذیرش هوش مصنوعی تعادل ایجاد کنند و از این اجلاس برای تقویت همکاریهای فرامرزی استفاده نمایند. بحث جهانی درباره ایمنی هوش مصنوعی که از اجلاس بلچلی ۲۰۲۳ آغاز شد و در اجلاسهای سئول و سانفرانسیسکو ۲۰۲۴ ادامه یافت، با تغییر جهت سیاسی در آمریکا و بریتانیا در ۲۰۲۵ کمرنگ شد.
در اجلاس پاریس، تمرکز از خطرات وجودی به سمت «نوآوری و شتاب» در هوش مصنوعی تغییر کرد؛ بهطوری که آمریکا و بریتانیا از امضای بیانیه پایدار هوش مصنوعی خودداری کردند و نام مؤسسات ایمنی خود را به مراکز «امنیت ملی» و «استانداردهای فناوری» تغییر دادند. این نشاندهنده تحول راهبرد کشورها به سمت سرمایهگذاری گسترده در توسعه هوش مصنوعی، آموزش مدلهای زبانی بزرگ و کاهش مقررات محدودکننده است؛ در حالی که نگرانیهای اجتماعی و وجودی درباره هوش مصنوعی به حاشیه رانده شدهاند.
دولت ترامپ با لغو مقررات هوش مصنوعی دوره بایدن و تدوین «طرح اقدام هوش مصنوعی» جدید، راهبرد خود را بر مقرراتزدایی و همسویی توسعه هوش مصنوعی با امنیت ملی و رقابت اقتصادی متمرکز کرده است. در سطح ایالتی، تلاشها برای تنظیم مقررات هوش مصنوعی با وتوی قانون ویرجینیا و تعدیل قانون تگزاس با شکست مواجه شدهاند.
در اروپا نیز اگرچه اتحادیه اروپا به اجرای قانون هوش مصنوعی خود ادامه میدهد، فشار صنعت به خاطر تأخیر در اجرا و تأکید گروه هفت بر نقش هوش مصنوعی در رشد اقتصادی، نشاندهنده اولویت قائل شدن برای بهکارگیری فناوری در مقابل نگرانیهای ایمنی است. این تحولات حاکی از تغییر جهت جهانی به سمت تسهیل توسعه هوش مصنوعی با کاهش محدودیتهای نظارتی است.
علیرغم تغییر جهت سیاستهای جهانی به سمت توسعه سریع هوش مصنوعی، نیاز به گفتوگو درباره اعتماد و ایمنی همچنان حیاتی است. ظهور فناوریهای نوظهوری مانند هوش مصنوعی عاملی(Agentic AI)-سیستمهای هوش مصنوعی که برای عملکرد خودکار، تصمیمگیری و انجام اقدامات لازم برای دستیابی به اهداف خاص با حداقل دخالت انسان طراحی شدهاند- و چالشهای پیچیده استقرار سازمانی نشان میدهد سال ۲۰۲۵ نه پایان، بلکه آغازی جدید برای سیاستگذاری هوش مصنوعی است. اجلاس آینده «تأثیر هوش مصنوعی» در دهلینو فرصتی است برای ایجاد اکوسیستمی که از طریق آزمایشهای دقیق، همزمان به نوآوری و اعتمادسازی بپردازد. هوش مصنوعی عاملی، تحول بعدی در عرصه فناوری هوش مصنوعی است.
در عین حال که میتواند مزایای قابل توجهی ارائه دهد، ممکن است ریسکهای موجود را تشدید یا ریسکهای جدیدی ایجاد کند، زیرا قادر به اجرای وظایف به صورت مستقل است. دولتها باید چارچوبهای نظارتی موجود را ارزیابی و اطمینان حاصل کنند که این چارچوبها ریسکهای جدید مرتبط با هوش مصنوعی عاملی را در نظر گرفتهاند و در صورت شناسایی شکافها، باید چارچوبهایی انعطافپذیر و آیندهنگر ایجاد کنند که بتواند با تحولات آینده هوش مصنوعی سازگار شود. مدلهای متنباز و وزنباز نیازمند شفافیت بیشتر در سطح دسترسی و اشتراکگذاری دادهها هستند.
دولتها و صنایع باید درک روشنی از اجزای قابل اشتراکگذاری این مدلها و تأثیرات امنیت ملی آنها داشته باشند. این درک به انتخاب ایمن شرکا و تأمینکنندگان کمک کرده و چارچوبی امن برای توسعه و آزمایش فراهم میکند. گفتوگوهای صنعتی میتوانند استانداردهای شفافیت و امنیت را در این حوزه تعریف کنند. دولتها باید بهکارگیری آزمایشها، معیارها و ارزیابیهای هوش مصنوعی مبتنی بر اجماع و مورد پذیرش جهانی را تشویق کنند. توسعهدهندگان مدلهای پیشرفته باید بتوانند مدلهای زبانی بزرگ (LLM) خود را با کمک ارزیابیهای دقیق عملکرد و ایمنی درک، تحلیل و تکرار کنند.
دولتها باید از توسعه چارچوبهای قوی آزمایش و ارزیابی حمایت کنند تا اطمینان حاصل شود که این چارچوبها مناسب هدف هستند، به مسائلی مانند نبود ثبات و قابلیت اطمینان در گزارشدهی نتایج ارزیابی توجه دارند و دسترسی به مجموعه دادههای ارزیابی باکیفیت و قابل اعتماد را بهبود میبخشند. این چارچوبها همچنین باید به گونهای طراحی شوند که درک و تکرار نتایج ارزیابی را برای بهبود مدلها بدون «بیشبرازش» (اورفیت یا بیشبرازش، سازگاری بیش از حد با دادههای آموزشی است که منجر به عملکرد ضعیف در دادههای جدید میشود) ممکن سازند.
گفتوگوی مربوط به فناوری به مرزهای ملی محدود نمیشود. ضروری است که ذینفعان بخش عمومی و خصوصی، در حالی که درباره حکمرانی و شفافیت هوش مصنوعی گفتوگو میکنند، وابستگی متقابل زنجیره ارزش هوش مصنوعی را درک و از آن بهرهبرداری کنند. حیاتی است که سیاستگذاران و بازیگران مختلف در زنجیره ارزش هوش مصنوعی درک روشنی از نقشها و مسئولیتهای خود داشته باشند.