| کد مطلب: ۴۶۴۱۹

هوش مصنوعی و سیاست‌بین‌الملل

اجلاس آینده تأثیر هوش مصنوعی (دهلی نو، فوریه ۲۰۲۶) می‌تواند محملی برای پیشبرد گفت‌وگوهای بین‌المللی درباره اعتماد و ارزیابی هوش مصنوعی، و ایجاد هماهنگی جهانی برای مدیریت هوش مصنوعی با دو هدف موازی کاهش خطرات و تسهیل پذیرش گسترده آن باشد.

هوش مصنوعی و سیاست‌بین‌الملل

اجلاس آینده تأثیر هوش مصنوعی (دهلی نو، فوریه ۲۰۲۶) می‌تواند محملی برای پیشبرد گفت‌وگوهای بین‌المللی درباره اعتماد و ارزیابی هوش مصنوعی، و ایجاد هماهنگی جهانی برای مدیریت هوش مصنوعی با دو هدف موازی کاهش خطرات و تسهیل پذیرش گسترده آن باشد. دولت‌ها باید بین ایمنی و پذیرش هوش مصنوعی تعادل ایجاد کنند و از این اجلاس برای تقویت همکاری‌های فرامرزی استفاده نمایند. بحث جهانی درباره ایمنی هوش مصنوعی که از اجلاس بلچلی ۲۰۲۳ آغاز شد و در اجلاس‌های سئول و سانفرانسیسکو ۲۰۲۴ ادامه یافت، با تغییر جهت سیاسی در آمریکا و بریتانیا در ۲۰۲۵ کمرنگ شد.

در اجلاس پاریس، تمرکز از خطرات وجودی به سمت «نوآوری و شتاب» در هوش مصنوعی تغییر کرد؛ به‌طوری که آمریکا و بریتانیا از امضای بیانیه پایدار هوش مصنوعی خودداری کردند و نام مؤسسات ایمنی خود را به مراکز «امنیت ملی» و «استانداردهای فناوری» تغییر دادند. این نشان‌دهنده تحول راهبرد کشورها به سمت سرمایه‌گذاری گسترده در توسعه هوش مصنوعی، آموزش مدل‌های زبانی بزرگ و کاهش مقررات محدودکننده است؛ در حالی که نگرانی‌های اجتماعی و وجودی درباره هوش مصنوعی به حاشیه رانده شده‌اند.

دولت ترامپ با لغو مقررات هوش مصنوعی دوره بایدن و تدوین «طرح اقدام هوش مصنوعی» جدید، راهبرد خود را بر مقررات‌زدایی و همسویی توسعه هوش مصنوعی با امنیت ملی و رقابت اقتصادی متمرکز کرده است. در سطح ایالتی، تلاش‌ها برای تنظیم مقررات هوش مصنوعی با وتوی قانون ویرجینیا و تعدیل قانون تگزاس با شکست مواجه شده‌اند.

در اروپا نیز اگرچه اتحادیه اروپا به اجرای قانون هوش مصنوعی خود ادامه می‌دهد، فشار صنعت به خاطر تأخیر در اجرا و تأکید گروه هفت بر نقش هوش مصنوعی در رشد اقتصادی، نشان‌دهنده اولویت قائل شدن برای به‌کارگیری فناوری در مقابل نگرانی‌های ایمنی است. این تحولات حاکی از تغییر جهت جهانی به سمت تسهیل توسعه هوش مصنوعی با کاهش محدودیت‌های نظارتی است.

علیرغم تغییر جهت سیاست‌های جهانی به سمت توسعه سریع هوش مصنوعی، نیاز به گفت‌وگو درباره اعتماد و ایمنی همچنان حیاتی است. ظهور فناوری‌های نوظهوری مانند هوش مصنوعی عاملی(Agentic AI)-سیستم‌های هوش مصنوعی که برای عملکرد خودکار، تصمیم‌گیری و انجام اقدامات لازم برای دستیابی به اهداف خاص با حداقل دخالت انسان طراحی شده‌اند- و چالش‌های پیچیده استقرار سازمانی نشان می‌دهد سال ۲۰۲۵ نه پایان، بلکه آغازی جدید برای سیاست‌گذاری هوش مصنوعی است. اجلاس آینده «تأثیر هوش مصنوعی» در دهلی‌نو فرصتی است برای ایجاد اکوسیستمی که از طریق آزمایش‌های دقیق، همزمان به نوآوری و اعتمادسازی بپردازد. هوش مصنوعی عاملی، تحول بعدی در عرصه فناوری هوش مصنوعی است.

در عین حال که می‌تواند مزایای قابل توجهی ارائه دهد، ممکن است ریسک‌های موجود را تشدید یا ریسک‌های جدیدی ایجاد کند، زیرا قادر به اجرای وظایف به صورت مستقل است. دولت‌ها باید چارچوب‌های نظارتی موجود را ارزیابی و اطمینان حاصل کنند که این چارچوب‌ها ریسک‌های جدید مرتبط با هوش مصنوعی عاملی را در نظر گرفته‌اند و در صورت شناسایی شکاف‌ها، باید چارچوب‌هایی انعطاف‌پذیر و آینده‌نگر ایجاد کنند که بتواند با تحولات آینده هوش مصنوعی سازگار شود. مدل‌های متن‌باز و وزن‌باز نیازمند شفافیت بیشتر در سطح دسترسی و اشتراک‌گذاری داده‌ها هستند.

دولت‌ها و صنایع باید درک روشنی از اجزای قابل اشتراک‌گذاری این مدل‌ها و تأثیرات امنیت ملی آنها داشته باشند. این درک به انتخاب ایمن شرکا و تأمین‌کنندگان کمک کرده و چارچوبی امن برای توسعه و آزمایش فراهم می‌کند. گفت‌وگوهای صنعتی می‌توانند استانداردهای شفافیت و امنیت را در این حوزه تعریف کنند. دولت‌ها باید به‌کارگیری آزمایش‌ها، معیارها و ارزیابی‌های هوش مصنوعی مبتنی بر اجماع و مورد پذیرش جهانی را تشویق کنند. توسعه‌دهندگان مدل‌های پیشرفته باید بتوانند مدل‌های زبانی بزرگ (LLM) خود را با کمک ارزیابی‌های دقیق عملکرد و ایمنی درک، تحلیل و تکرار کنند.

دولت‌ها باید از توسعه چارچوب‌های قوی آزمایش و ارزیابی حمایت کنند تا اطمینان حاصل شود که این چارچوب‌ها مناسب هدف هستند، به مسائلی مانند نبود ثبات و قابلیت اطمینان در گزارش‌دهی نتایج ارزیابی توجه دارند و دسترسی به مجموعه داده‌های ارزیابی باکیفیت و قابل اعتماد را بهبود می‌بخشند. این چارچوب‌ها همچنین باید به گونه‌ای طراحی شوند که درک و تکرار نتایج ارزیابی را برای بهبود مدل‌ها بدون «بیش‌برازش» (اورفیت یا بیش‌برازش، سازگاری بیش از حد با داده‌های آموزشی است که منجر به عملکرد ضعیف در داده‌های جدید می‌شود) ممکن سازند.

گفت‌وگوی مربوط به فناوری به مرزهای ملی محدود نمی‌شود. ضروری است که ذینفعان بخش عمومی و خصوصی، در حالی که درباره حکمرانی و شفافیت هوش مصنوعی گفت‌وگو می‌کنند، وابستگی متقابل زنجیره ارزش هوش مصنوعی را درک و از آن بهره‌برداری کنند. حیاتی است که سیاستگذاران و بازیگران مختلف در زنجیره ارزش هوش مصنوعی درک روشنی از نقش‌ها و مسئولیت‌های خود داشته باشند.

به کانال تلگرام هم میهن بپیوندید

دیدگاه

ویژه بین‌الملل
پربازدیدترین
آخرین اخبار