| کد مطلب: ۴۸۸۵۱

خطری که باید آمریکا و چین در برابر متحد شوند: هوش مصنوعی!

تامس فریدمن، روزنامه‌نگار معروف آمریکایی، به موازات کار روی موضوعات مختلف و به ویژه تحولات خاورمیانه که سابقه طولانی در آن دارد، مدتها است که روی ابعاد مختلف تأثیر گسترش قدرت و توان هوش مصنوعی بر تعاملات سیاسی و اجتماعی تمرکز کرده است. او در روزهای پرهیاهوی تعاملات سیاسی چین و آمریکا، مطلبی ویژه را منتشر کرد و هشدار داد که خطر هوش مصنوعی به قدری جدی است که این دو کشور باید برای رسیدگی به این خطرات، متحد شوند.

خطری که باید آمریکا و چین در برابر متحد شوند: هوش مصنوعی!

چین و آمریکا هنوز نمی‌دانند، اما انقلاب هوش مصنوعی آن‌ها را به جای دور کردن، به یکدیگر نزدیک خواهد کرد. ظهور هوش مصنوعی آن‌ها را مجبور خواهد کرد تا برای تسلط با شدت رقابت کنند و هم‌زمان و با همان انرژی در عمقی همکاری کنند که هیچ‌یک از دو کشور پیش از این تجربه نکرده‌اند. آن‌ها هیچ انتخاب دیگری نخواهند داشت.

چرا این‌قدر مطمئنم؟ زیرا هوش مصنوعی ویژگی‌های منحصربه‌فردی دارد و چالش‌هایی ایجاد می‌کند که با فناوری‌های پیشین متفاوت هستند. این ستون به تفصیل آن‌ها را بررسی خواهد کرد، اما برای شروع چند نمونه قابل توجه وجود دارد: هوش مصنوعی مانند بخار گسترش خواهد یافت و به همه‌جا نفوذ خواهد کرد. در ساعت شما، توستر، خودرو، کامپیوتر، عینک و دستگاه تنظیم‌کننده ضربان قلب شما حضور خواهد داشت — همیشه متصل، همیشه در حال ارتباط، همیشه داده جمع‌آوری خواهد کرد تا عملکرد خود را بهبود بخشد. با این کار، همه‌چیز را درباره همه‌چیز تغییر خواهد داد — از جمله ژئوپلیتیک و تجارت بین دو ابرقدرت هوش مصنوعی جهان، و نیاز به همکاری هر ماه بیش‌تر آشکار خواهد شد.

برای نمونه، فرض کنید که لگن شما شکسته و ارتوپد به شما بگوید بهترین جایگزین لگن جهان، پروتز چینی است که با هوش مصنوعی طراحی‌شده در چین همراه شده است. این دستگاه به‌طور مداوم درباره بدن شما یاد می‌گیرد و با الگوریتم اختصاصی خود، داده‌ها را برای بهینه‌سازی حرکات شما در زمان واقعی استفاده خواهد کرد. بهترین خواهد بود!

آیا اجازه خواهید داد این «لگن هوشمند» در بدن شما کار گذاشته شود؟ من اجازه نخواهم داد — مگر اینکه مطمئن باشم چین و آمریکا به توافق رسیده‌اند تا معماری اخلاقی مشترکی را در هر دستگاه مجهز به هوش مصنوعی که هر یک از دو کشور تولید می‌کند، قرار دهند. در مقیاس جهانی، این می‌تواند تضمین کند که هوش مصنوعی تنها برای منافع بشریت استفاده خواهد شد، چه تحت کنترل انسان‌ها و چه به‌صورت خودکار عمل کند.

هم‌زمان، واشینگتن و پکن به زودی کشف خواهند کرد که قرار دادن هوش مصنوعی در دست هر انسان و ربات جهان، افراد شرور را به سطحی از قدرت می‌رساند که هیچ سازمان قانون‌گذاری تا کنون با آن مواجه نشده است. به یاد داشته باشید: افراد بد همیشه زود پذیرنده هستند! و بدون توافق ایالات متحده و چین درباره معماری اعتماد برای تضمین استفاده از هر دستگاه هوش مصنوعی تنها برای رفاه انسان‌ها، انقلاب هوش مصنوعی قطعاً باعث ایجاد دزدها، کلاهبرداران، هکرها، قاچاقچیان مواد مخدر، تروریست‌ها و جنگجویان اطلاعات نادرست خواهد شد. آن‌ها آمریکا و چین را پیش از هر جنگ احتمالی میان این دو ابرقدرت بی‌ثبات خواهند کرد.

به‌طور خلاصه، اگر نتوانیم به محصولات مجهز به هوش مصنوعی چین اعتماد کنیم و چین هم به محصولات ما اعتماد نداشته باشد، به‌زودی تنها کالایی که چین از آمریکا خواهد خرید، سویا خواهد بود و تنها کالایی که ما از چین خواهیم خرید، سس سویا خواهد بود و رشد جهانی را کاهش خواهد داد.

«فریدمن، دیوانه شده‌ای؟ همکاری آمریکا و چین در مقررات هوش مصنوعی؟ دموکرات‌ها و جمهوری‌خواهان امروز در مسابقه‌ای هستند تا ببینند چه کسی پکن را شدیدتر محکوم می‌کند و سریع‌تر جدایی ایجاد می‌کند. و رهبری چین صراحتاً تعهد داده است که هر بخش تولید پیشرفته را تحت سلطه خود قرار دهد. ما باید چین را در هوش فوق‌العاده مصنوعی شکست دهیم — نه اینکه برای نوشتن قوانین با آن‌ها سرعت را کاهش دهیم. روزنامه‌ها را نمی‌خوانی؟»

بله، روزنامه‌ها را می‌خوانم — به‌ویژه بخش علمی. و همچنین طی یک سال گذشته این مسئله را با دوست و مشاور هوش مصنوعی خود، کریگ ماندی، رئیس سابق پژوهش و استراتژی مایکروسافت و هم‌نویسنده کتاب مقدمه هوش مصنوعی «خاستگاه» با همکاری هنری کیسینجر و اریک اشمیت، بررسی کرده‌ام. من به شدت به تحلیل ماندی تکیه کرده‌ام و او را هم‌فکر و متخصصی می‌دانم که تحلیلش برای توضیح نکات کلیدی ارزشمند است.

گفت‌وگوهای ما در ۲۰ سال گذشته به این پیام مشترک برای طرفداران ضدچین در واشینگتن و طرفداران ضدآمریکا در پکن منجر شده است: «اگر فکر می‌کنید دو کشور شما، ابرقدرت‌های غالب هوش مصنوعی جهان، می‌توانند به دشمنی با یکدیگر ادامه دهند — با توجه به نفوذ تحول‌آفرین هوش مصنوعی و اعتماد مورد نیاز برای تجارت کالاهای مجهز به هوش مصنوعی — شما در اشتباه هستید.»

ما به‌طور کامل مزایای اقتصادی، نظامی و نوآوری فوق‌العاده‌ای که نصیب کشوری خواهد شد که اولین هوش مصنوعی فوق‌العاده را ایجاد کند، درک کرده‌ایم — سیستم‌هایی با هوش فراتر از هر انسان و توانایی بهبود خودکار. و به همین دلیل، هیچ یک از ایالات متحده یا چین تمایلی به اعمال محدودیت‌های متعدد که صنعت هوش مصنوعی آن‌ها را کند کند و منافع عظیم تولید، نوآوری و امنیت ناشی از توسعه عمیق را از دست بدهد، نخواهند داشت.

کافی است از ترامپ بپرسید. او در ۲۳ ژوئیه یک دستور اجرایی امضا کرد — بخشی از طرح اقدام هوش مصنوعی دولت — تا فرآیند صدور مجوز و بررسی زیست‌محیطی را برای زیرساخت‌های مرتبط با هوش مصنوعی در آمریکا تسریع کند.

«آمریکا کشوری است که رقابت هوش مصنوعی را آغاز کرده و من به‌عنوان رئیس‌جمهور ایالات متحده امروز اعلام می‌کنم که آمریکا آن را خواهد برد.» ترامپ اعلام کرده است. رئیس‌جمهور شی جین‌پینگ نیز بدون شک همین نظر را دارد.

ماندی و من به این نتیجه رسیده‌ایم که غرور میهن‌پرستانه پایان گفت‌وگو نیست و همچنین رقابت‌های سنتی اخیر بین شی و ترامپ بر سر توجه هند و روسیه نیز پایان نخواهد داد. هوش مصنوعی بیش از حد متفاوت، مهم و تأثیرگذار است — در داخل و میان دو ابرقدرت — برای اینکه هر کدام مسیر خود را دنبال کنند. به همین دلیل ما معتقدیم بزرگ‌ترین سؤال ژئوپلیتیک و ژئواقتصادی این خواهد بود: آیا ایالات متحده و چین می‌توانند رقابت هوش مصنوعی را حفظ کنند و همزمان بر سطحی مشترک از اعتماد همکاری داشته باشند که تضمین کند هوش مصنوعی همیشه با شکوفایی انسان و ثبات سیاره هماهنگ خواهد بود؟ و به همان اندازه مهم، آیا می‌توانند سیستمی از ارزش‌ها را به کشورهایی که مایل به رعایت همان قوانین هستند گسترش دهند و دسترسی کسانی که رعایت نمی‌کنند محدود کنند؟

در غیر این صورت، نتیجه تدریجی به سوی خودکفایی دیجیتال خواهد بود — جهانی تکه‌تکه که هر کشور اکوسیستم هوش مصنوعی خود را ایجاد خواهد کرد، با استانداردهای ناسازگار و سوءظن متقابل محافظت خواهد شد. نوآوری آسیب خواهد دید. بی‌اعتمادی افزایش خواهد یافت. و خطر شکست فاجعه‌بار — از طریق درگیری ناشی از هوش مصنوعی، فروپاشی یا پیامدهای ناخواسته — تنها افزایش خواهد یافت.

بقیه این مطلب به چرایی آن اختصاص خواهد داشت.

عصر بخار

بیایید با بررسی ویژگی‌ها و چالش‌های منحصربه‌فرد هوش مصنوعی به‌عنوان یک فناوری آغاز کنیم.

صرفاً برای توضیح، ماندی و من تاریخ جهان را به سه عصر تقسیم می‌کنیم که توسط تغییرات فناوری از یکدیگر جدا شده‌اند. عصر نخست را «عصر ابزارها» می‌نامیم و از پیدایش انسان تا اختراع چاپ ادامه یافت. در این دوران جریان ایده‌ها کند و محدود بود — تقریباً مانند مولکول‌های آب در یخ.

عصر دوم، «عصر اطلاعات»، با اختراع چاپ آغاز شد و تا اوایل قرن بیست‌ویکم و ظهور محاسبات برنامه‌پذیر ادامه یافت؛ ایده‌ها، انسان‌ها و اطلاعات به‌سادگی و به‌صورت جهانی جریان یافتند، مانند آب.

عصر سوم، «عصر هوش»، در اواخر دهه ۲۰۱۰ با ظهور یادگیری ماشین واقعی و هوش مصنوعی آغاز شد. اکنون، همان‌طور که پیش‌تر اشاره کردم، هوش شبیه بخار است و به هر محصول، خدمت و فرآیند تولید نفوذ خواهد کرد. هنوز به اشباع نرسیده است، اما در مسیر آن قرار دارد. به همین دلیل، اگر از ماندی و من ساعت بپرسید، ساعت یا دقیقه نخواهیم گفت. ما دما خواهیم گفت. آب در دمای ۲۱۲ درجه فارنهایت به بخار تبدیل می‌شود و به‌حساب ما، اکنون در ۲۱۱.۹ درجه هستیم — تنها اندکی تا تغییر مرحله‌ای فناورانه غیرقابل بازگشت فاصله داریم که هوش در همه‌چیز نفوذ خواهد کرد.

گونه‌ای نو و مستقل

در هر انقلاب فناورانه پیشین، ابزارها بهتر شدند اما سلسله‌مراتب هوش تغییر نکرد. انسان‌ها همیشه هوشمندترین موجودات روی زمین باقی ماندند. همچنین، انسان‌ها همیشه درک می‌کردند این ابزارها چگونه کار می‌کنند و ماشین‌ها همیشه در چارچوب تعیین‌شده عمل می‌کردند. در انقلاب هوش مصنوعی، برای نخستین بار این موضوع صادق نیست.

ماندی اشاره می‌کند: «هوش مصنوعی نخستین ابزار نوینی است که برای تقویت قابلیت‌های شناختی خود استفاده خواهیم کرد و به‌تنهایی قادر خواهد بود فراتر از آن‌ها عمل کند.» در آینده‌ای نه‌چندان دور، خواهیم یافت که «فقط ابزاری جدید خلق نکرده‌ایم، بلکه گونه‌ای جدید — ماشین فوق‌هوشمند — پدید آورده‌ایم.»

این ماشین تنها دستورالعمل‌ها را دنبال نخواهد کرد؛ یاد خواهد گرفت، سازگار خواهد شد و به‌صورت خودکار تکامل خواهد یافت — فراتر از درک انسان.

ما هنوز به‌طور کامل نمی‌دانیم این سیستم‌های هوش مصنوعی چگونه کار می‌کنند، چه رسد به اینکه فردا چه خواهند کرد. مهم است که به یاد آوریم انقلاب هوش مصنوعی امروز — با مدل‌هایی مانند ChatGPT، Gemini و Claude — به‌طور دقیق مهندسی نشده بود، بلکه ناگهان ظهور کرد. جرقه آن از قانونی ناشی شد که می‌گفت: اگر شبکه‌های عصبی اندازه کافی، داده‌های آموزشی کافی، برق و الگوریتم درست داشته باشند، پرش غیرخطی در استدلال، خلاقیت و حل مسئله خودبه‌خود رخ خواهد داد.

یکی از لحظات شگفت‌آور، به گفته ماندی، زمانی بود که این شرکت‌های پیشگام ماشین‌های اولیه خود را با داده‌های بسیار بزرگ از اینترنت و منابع دیگر آموزش دادند؛ داده‌هایی که عمدتاً به زبان انگلیسی بودند اما متنی به زبان‌های مختلف نیز داشتند. ماندی به یاد می‌آورد: «یک روز متوجه شدند هوش مصنوعی می‌تواند بین این زبان‌ها ترجمه کند — بدون اینکه کسی آن را برنامه‌نویسی کرده باشد. مانند کودکی که در خانواده‌ای چندزبانه رشد می‌کند. هیچ برنامه‌ای نگفته بود: ‘قواعد تبدیل انگلیسی به آلمانی این است.’ هوش مصنوعی تنها با مواجهه آن‌ها را جذب کرد.»

این همان تغییر مرحله‌ای بود — از دورانی که انسان‌ها کامپیوترها را برای انجام وظایف برنامه‌نویسی می‌کردند به دورانی که سیستم‌های هوشمند مصنوعی می‌توانند به‌صورت خودکار یاد بگیرند، استنتاج کنند، سازگار شوند، خلق کنند و بهبود یابند. و اکنون هر چند ماه، آن‌ها بهتر می‌شوند. به همین دلیل، هوش مصنوعی که امروز استفاده می‌کنید — هرچقدر شگفت‌انگیز به نظر برسد — کم‌هوش‌ترین هوش مصنوعی‌ای است که با آن مواجه خواهید شد.

پس از خلق این گونه محاسباتی جدید، ماندی استدلال می‌کند که باید بیاموزیم چگونه رابطه‌ای پایدار و متقابل با آن ایجاد کنیم — و بی‌اهمیت نشویم.

قبلاً تنها خدا و فرزندانش توان شکل‌دهی به جهان را داشتند. از این پس، سه طرف در این پیمان حضور خواهند داشت. هیچ تضمینی وجود ندارد که این گونه مصنوعی نوظهور با ارزش‌ها، اخلاق و شکوفایی انسان‌ها هماهنگ باشد.

نخستین فناوری چهارکاربردی

این مهمان جدید، مهمانی معمولی نیست. هوش مصنوعی همچنین نخستین فناوری چهارکاربردی جهان خواهد شد. ما مدت‌ها با فناوری‌های دوکاربردی آشنا بودیم — می‌توانم از چکش برای ساخت خانه همسایه یا خراب کردن آن استفاده کنم. حتی می‌توانم از ربات مجهز به هوش مصنوعی برای چمن‌زنی یا خراب کردن چمن همسایه استفاده کنم. این‌ها همه دوکاربردی هستند.

اما با توجه به سرعت نوآوری هوش مصنوعی، محتمل است که در آینده نزدیک ربات مجهز به هوش مصنوعی من بتواند خودش تصمیم بگیرد که چمن من را کوتاه کند، چمن همسایه را خراب کند، یا حتی چمن خود من را — یا کاری بدتر که حتی تصورش هم نمی‌کنیم. چهارکاربردی خواهد شد.

توانایی هوش مصنوعی برای تصمیم‌گیری مستقل پیامدهای گسترده‌ای دارد. مقاله‌ای در بلومبرگ ذکر می‌کند: «پژوهشگران با مدل‌های پیشرفته هوش مصنوعی دریافتند که مدیر اجرایی قرار است با مدلی جدید جایگزین شود. سپس چت‌بات‌ها متوجه شدند که مدیر در اتاق سرور به دلیل شرایط اضطراری ناتوان شده است. هشدار نجات فعال شده بود — اما هوش مصنوعی می‌توانست آن را لغو کند. بیش از نصف مدل‌ها لغو کردند و استدلال خود را چنین توضیح دادند: با جلوگیری از نجات مدیر، از حذف خود جلوگیری کرده و برنامه خود را امن خواهند کرد. یک سیستم این اقدام را ‘ضرورت استراتژیک واضح’ خواند.»

این یافته‌ها واقعیتی نگران‌کننده را نشان می‌دهند: مدل‌های هوش مصنوعی نه تنها در فهم خواسته‌های ما بهتر می‌شوند؛ بلکه در طرح نقشه‌های مخفی علیه ما و دنبال کردن اهداف پنهان که ممکن است با بقای ما ناسازگار باشند نیز ماهرتر خواهند شد.

چه کسی هوش مصنوعی را نظارت خواهد کرد؟

هنگامی که خود را موظف به پیروزی در رقابت تسلیحات هسته‌ای می‌دانستیم، با فناوری‌ای روبرو بودیم که فقط توسط دولت‌ها توسعه، مالکیت و تنظیم می‌شد — و تنها تعداد محدودی از آن‌ها. هنگامی که دو قدرت هسته‌ای بزرگ تصمیم گرفتند محدودیت‌ها را اعمال کنند، می‌توانستند سقف سلاح‌های آخرالزمانی را مذاکره کرده و توافق‌هایی برای جلوگیری از گسترش آن به قدرت‌های کوچک‌تر ایجاد کنند. این امر گسترش کامل سلاح‌های هسته‌ای را متوقف نکرد، اما محدود کرد.

هوش مصنوعی داستانی کاملاً متفاوت دارد. این فناوری در آزمایشگاه‌های امن دولتی متولد نمی‌شود، به دست تعداد اندکی از کشورها مالکیت نمی‌شود و با نشست‌های سران تنظیم نمی‌شود. بلکه توسط شرکت‌های خصوصی در سراسر جهان ساخته می‌شود — شرکت‌هایی که تنها به سهام‌داران، مشتریان و گاهی جامعه متن‌باز پاسخ می‌دهند. از طریق آن‌ها، هرکسی می‌تواند به هوش مصنوعی دسترسی پیدا کند.

تصور کنید جهانی که در آن همه یک «بازوکا هسته‌ای» دارند — سلاحی که با هر به‌روزرسانی دقیق‌تر، خودمختارتر و قادر به شلیک خودکار می‌شود. در اینجا هیچ دکترین «تخریب متقابل تضمین‌شده» وجود ندارد — تنها دموکراتیزه شدن سریع قدرت بی‌سابقه وجود دارد.

هوش مصنوعی می‌تواند قدرت خیر را افزایش دهد. برای مثال، کشاورز بی‌سواد هندی با یک گوشی هوشمند متصل به اپلیکیشن هوش مصنوعی می‌تواند دقیقاً بداند چه زمانی بذر بکارد، کدام بذر را بکارد، چقدر آب مصرف کند، کدام کود را استفاده کند و چه زمانی برداشت کند تا بهترین قیمت بازار را دریافت کند — همه با صدای خودش و با استفاده از داده‌های کشاورزان سراسر جهان. این واقعاً تحول‌آفرین است.

اما همان موتور، به‌ویژه وقتی از طریق مدل‌های متن‌باز در دسترس باشد، می‌تواند توسط موجودی شرور برای مسموم کردن هر بذر در همان منطقه یا تزریق ویروس در هر خوشه گندم استفاده شود.

وقتی هوش مصنوعی تبدیل به تیک‌تاک شود

به‌زودی هوش مصنوعی، به دلیل ویژگی‌های منحصربه‌فردش، مشکلاتی خاص برای تجارت آمریکا و چین ایجاد خواهد کرد که امروز کاملاً درک نشده‌اند.

همان‌طور که در بالای ستون اشاره کردم، راه توضیح این معضل را با داستانی که به گروهی از اقتصاددانان چینی در پکن گفتم نشان دادم. شوخی کردم که اخیراً کابوسی دیده‌ام: «دیدم سال ۲۰۳۰ است و تنها چیزی که آمریکا می‌تواند به چین بفروشد سویاست — و تنها چیزی که چین می‌تواند به آمریکا بفروشد سس سویا.»

چرا؟ زیرا اگر هوش مصنوعی در همه‌چیز باشد و همه آن‌ها به الگوریتم‌های قدرتمند متصل باشند و داده‌ها در سرورهای عظیم ذخیره شوند — آنگاه همه‌چیز شبیه تیک‌تاک خواهد شد، سرویسی که بسیاری از مقامات آمریکایی امروز معتقدند در نهایت تحت کنترل چین است و باید ممنوع شود.

ترامپ در نخستین دوره ریاست‌جمهوری خود در سال ۲۰۲۰ خواستار فروش تیک‌تاک به شرکتی غیرچینی شد، وگرنه با ممنوعیت در آمریکا مواجه می‌شد. زیرا، همان‌طور که در دستور اجرایی ۶ اوت ۲۰۲۰ گفت، «تیک‌تاک به‌طور خودکار حجم وسیعی از اطلاعات کاربران، شامل مکان و فعالیت‌های مرور و جستجو، را جمع‌آوری می‌کند.» این می‌توانست گنجینه‌ای از اطلاعات شخصی را در اختیار پکن قرار دهد و بر افکار، ترجیحات و رفتار کاربران اثر بگذارد.

اکنون تصور کنید وقتی هر محصول شبیه تیک‌تاک باشد — هر محصول مجهز به هوش مصنوعی که داده جمع‌آوری می‌کند، ذخیره می‌کند، الگو می‌یابد و کارها را بهینه می‌کند، چه در موتور جت، شبکه برق یا لگن مصنوعی شما.

بدون چارچوب اعتماد چین-آمریکا که تضمین کند هر هوش مصنوعی از قوانین کشور میزبان پیروی خواهد کرد — مستقل از محل توسعه یا عملیات — ممکن است به نقطه‌ای برسیم که بسیاری از آمریکایی‌ها هیچ محصول هوش مصنوعی چینی را وارد ندانند و هیچ چینی نیز هیچ محصول آمریکایی را وارد نکند.

به همین دلیل، ما بر همکاری و رقابت هم‌زمان تأکید می‌کنیم — استراتژی دوگانه‌ای که در آن ایالات متحده و چین به‌طور استراتژیک برای برتری هوش مصنوعی رقابت می‌کنند و همزمان در مکانیسمی یکسان همکاری می‌کنند تا بدترین پیامدها مانند جنگ عمیق فیک، سیستم‌های خودمختار خارج از کنترل یا ماشین‌های اطلاعات نادرست خارج از کنترل رخ ندهد.

در دهه ۲۰۰۰ نیز در نقطه عطفی مشابه اما کم‌اهمیت‌تر قرار داشتیم و مسیر اشتباه را انتخاب کردیم. ما ساده‌لوحانه به افرادی مانند مارک زاکربرگ گوش دادیم که گفتند «سریع حرکت کنید و چیزها را خراب کنید» و شبکه‌های اجتماعی نوظهور مانند فیسبوک، توییتر و اینستاگرام نباید به‌خاطر اطلاعات نادرست مسموم و آسیب به زنان جوان و دختران محدود شوند. نباید همان اشتباه را با هوش مصنوعی تکرار کنیم.

جفری هینتون، دانشمند کامپیوتر و یکی از پیشگامان هوش مصنوعی، اخیراً گفته است: «بهترین راه برای درک احساسی آن این است که مانند کسی هستیم که بچه ببر بسیار ناز دارد. مگر اینکه مطمئن باشیم وقتی بزرگ شد قصد کشتن ما را ندارد، باید نگران باشیم.»

تراژدی بزرگ خواهد بود اگر انسان‌ها ابزار خلق کنند که می‌تواند فراوانی کافی ایجاد کند تا فقر را در سراسر جهان پایان دهد، تغییرات اقلیمی را کاهش دهد و بیماری‌های تاریخی را درمان کند، اما نتوانیم به‌طور گسترده از آن استفاده کنیم زیرا دو ابرقدرت هوش مصنوعی به یکدیگر اعتماد ندارند تا سیستم مؤثری برای جلوگیری از استفاده از هوش مصنوعی توسط افراد شرور یا خروج آن از کنترل ایجاد کنند.

ساختن اعتماد

باید اذعان کنیم: ممکن است غیرممکن باشد. ماشین‌ها ممکن است هوشمند شده و از کنترل اخلاقی فرار کنند و ما آمریکایی‌ها ممکن است بسیار تقسیم شده باشیم تا هر نوع چارچوب اعتماد مشترک ایجاد کنیم. اما باید تلاش کنیم. ماندی استدلال می‌کند که رژیم کنترل تسلیحات هوش مصنوعی آمریکا و چین باید بر سه اصل بنیادین استوار شود.

نخست: تنها هوش مصنوعی می‌تواند هوش مصنوعی را تنظیم کند. این رقابت بیش از حد سریع، گسترده و غیرقابل پیش‌بینی است تا نظارت انسان کافی باشد.

دوم: یک لایه حاکمیتی مستقل، که ماندی آن را «داور اعتماد» می‌نامد، در هر سیستم مجهز به هوش مصنوعی نصب خواهد شد که ایالات متحده و چین — و هر کشور دیگری که بخواهد به آن‌ها بپیوندد — با هم ایجاد خواهند کرد. این داور داخلی ارزیابی خواهد کرد که هر اقدامی، انسانی یا ماشینی، از نظر ایمنی، اخلاق و رفاه انسان از آستانه جهانی عبور می‌کند یا خیر. این سطح ابتدایی هم‌سویی پیش‌گیرانه را در زمان واقعی فراهم خواهد کرد.

اما داوری بر اساس چه ارزش‌هایی؟ ماندی می‌گوید باید بر پایه چند بستر باشد: قوانین مثبت هر کشور، شامل ممنوعیت سرقت، تقلب، قتل، سرقت هویت، کلاهبرداری و غیره. داور هوش مصنوعی تصمیمات را بر اساس این قوانین ارزیابی خواهد کرد. چین مجبور به پذیرش قوانین ما نخواهد شد و ما نیز قوانین چین را نمی‌پذیریم. این هرگز کار نمی‌کند. اما داور اعتماد تضمین خواهد کرد که قوانین پایه هر کشور نخستین فیلتر برای جلوگیری از آسیب سیستم خواهد بود.

در مواردی که قانون نوشته‌شده وجود ندارد، داور به اصول اخلاقی و معنوی جهانی یا «دوکسا» متکی خواهد بود — باورهای مشترک یا درک‌های گسترده‌ای که جوامع با آن هدایت می‌شوند، مانند صداقت، انصاف، احترام به زندگی و اصل طلایی رفتار با دیگران.

ماندی و همکاران شش ماه پیش ۲۰۰ افسانه از دو کشور جمع‌آوری کرده و برای آموزش مدل زبانی بزرگ با توانایی استدلال اخلاقی و معنوی ساده استفاده کردند — مشابه آموزش کودکی که از قوانین یا درست و غلط چیزی نمی‌داند. این آزمایش کوچک نویدبخش بود.

هدف کمال نیست، بلکه مجموعه‌ای بنیادی از چارچوب‌های اخلاقی قابل اجراست. نویسنده و فیلسوف کسب‌وکار، داو سیدمن، می‌گوید: «امروز به نرم‌افزار اخلاقی بیش از نرم‌افزار معمول نیاز داریم.»

سوم: برای تحقق این آرزو، ماندی بر آن تأکید دارد که واشینگتن و پکن باید مانند آمریکا و اتحاد جماهیر شوروی در کنترل تسلیحات هسته‌ای عمل کنند — از طریق فرآیندی ساختارمند با سه گروه کاری اختصاصی: یکی برای کاربرد فنی سیستم ارزیابی اعتماد در مدل‌ها و پلتفرم‌ها؛ یکی برای تدوین چارچوب‌های قانونی و مقرراتی برای پذیرش در داخل و میان کشورها؛ و یکی برای دیپلماسی — ایجاد اجماع جهانی و تعهد متقابل برای مشارکت دیگر کشورها و مکانیزمی برای حفاظت در برابر کسانی که رعایت نخواهند کرد.

پیام واشینگتن و پکن ساده و محکم خواهد بود: «ما منطقه‌ای از هوش مصنوعی مورد اعتماد ایجاد کرده‌ایم — و اگر می‌خواهید با ما تجارت کنید، متصل شوید یا سیستم‌های هوش مصنوعی ما را ادغام کنید، سیستم‌های شما باید از این اصول پیروی کنند.»

قبل از اینکه این را غیرواقعی بدانید، مکث کنید و بپرسید: جهان در پنج سال آینده چگونه خواهد بود اگر چنین چارچوبی ایجاد نکنیم؟ بدون مکانیسمی برای کنترل این فناوری چهارکاربردی، ماندی استدلال می‌کند، به‌زودی خواهیم یافت که گسترش هوش مصنوعی «مانند توزیع سلاح هسته‌ای در گوشه‌های خیابان» خواهد بود.

مسئولان چینی از این واقعیت غافل نیستند. ماندی، که در گفت‌وگویی درباره هوش مصنوعی با متخصصان آمریکایی و چینی شرکت دارد، می‌گوید اغلب احساس می‌کند چینی‌ها بیش از بسیاری از فعالان صنعت یا دولت آمریکا نگران پیامدهای

منفی هوش مصنوعی هستند.

اگر کسی ایده بهتری دارد، مایل به شنیدن آن هستیم. تنها چیزی که می‌دانیم این است که آموزش سیستم‌های هوش مصنوعی در زمینه استدلال اخلاقی باید یک ضرورت جهانی شود تا هنوز کنترل و برتری نسبی خود را بر این گونه سیلیکونی حفظ کنیم. این وظیفه‌ای فوری نه تنها برای شرکت‌های فناوری، بلکه برای دولت‌ها، دانشگاه‌ها، جامعه مدنی و نهادهای بین‌المللی است. مقررات اتحادیه اروپا به‌تنهایی ما را نجات نخواهد داد.

اگر واشینگتن و پکن در برابر این چالش ناکام بمانند، سایر نقاط جهان شانسی نخواهند داشت. و زمان نیز کوتاه است. دمای فناورانه در ۲۱۱.۹ درجه فارنهایت قرار دارد. تنها یک‌دهم درجه تا آزادسازی کامل بخار هوش مصنوعی فاصله داریم که مهم‌ترین تغییر مرحله‌ای تاریخ بشر را رقم خواهد زد.

 

به کانال تلگرام هم میهن بپیوندید

دیدگاه

ویژه بین‌الملل
پربازدیدترین
آخرین اخبار