خطری که باید آمریکا و چین در برابر متحد شوند: هوش مصنوعی!
تامس فریدمن، روزنامهنگار معروف آمریکایی، به موازات کار روی موضوعات مختلف و به ویژه تحولات خاورمیانه که سابقه طولانی در آن دارد، مدتها است که روی ابعاد مختلف تأثیر گسترش قدرت و توان هوش مصنوعی بر تعاملات سیاسی و اجتماعی تمرکز کرده است. او در روزهای پرهیاهوی تعاملات سیاسی چین و آمریکا، مطلبی ویژه را منتشر کرد و هشدار داد که خطر هوش مصنوعی به قدری جدی است که این دو کشور باید برای رسیدگی به این خطرات، متحد شوند.

چین و آمریکا هنوز نمیدانند، اما انقلاب هوش مصنوعی آنها را به جای دور کردن، به یکدیگر نزدیک خواهد کرد. ظهور هوش مصنوعی آنها را مجبور خواهد کرد تا برای تسلط با شدت رقابت کنند و همزمان و با همان انرژی در عمقی همکاری کنند که هیچیک از دو کشور پیش از این تجربه نکردهاند. آنها هیچ انتخاب دیگری نخواهند داشت.
چرا اینقدر مطمئنم؟ زیرا هوش مصنوعی ویژگیهای منحصربهفردی دارد و چالشهایی ایجاد میکند که با فناوریهای پیشین متفاوت هستند. این ستون به تفصیل آنها را بررسی خواهد کرد، اما برای شروع چند نمونه قابل توجه وجود دارد: هوش مصنوعی مانند بخار گسترش خواهد یافت و به همهجا نفوذ خواهد کرد. در ساعت شما، توستر، خودرو، کامپیوتر، عینک و دستگاه تنظیمکننده ضربان قلب شما حضور خواهد داشت — همیشه متصل، همیشه در حال ارتباط، همیشه داده جمعآوری خواهد کرد تا عملکرد خود را بهبود بخشد. با این کار، همهچیز را درباره همهچیز تغییر خواهد داد — از جمله ژئوپلیتیک و تجارت بین دو ابرقدرت هوش مصنوعی جهان، و نیاز به همکاری هر ماه بیشتر آشکار خواهد شد.
برای نمونه، فرض کنید که لگن شما شکسته و ارتوپد به شما بگوید بهترین جایگزین لگن جهان، پروتز چینی است که با هوش مصنوعی طراحیشده در چین همراه شده است. این دستگاه بهطور مداوم درباره بدن شما یاد میگیرد و با الگوریتم اختصاصی خود، دادهها را برای بهینهسازی حرکات شما در زمان واقعی استفاده خواهد کرد. بهترین خواهد بود!
آیا اجازه خواهید داد این «لگن هوشمند» در بدن شما کار گذاشته شود؟ من اجازه نخواهم داد — مگر اینکه مطمئن باشم چین و آمریکا به توافق رسیدهاند تا معماری اخلاقی مشترکی را در هر دستگاه مجهز به هوش مصنوعی که هر یک از دو کشور تولید میکند، قرار دهند. در مقیاس جهانی، این میتواند تضمین کند که هوش مصنوعی تنها برای منافع بشریت استفاده خواهد شد، چه تحت کنترل انسانها و چه بهصورت خودکار عمل کند.
همزمان، واشینگتن و پکن به زودی کشف خواهند کرد که قرار دادن هوش مصنوعی در دست هر انسان و ربات جهان، افراد شرور را به سطحی از قدرت میرساند که هیچ سازمان قانونگذاری تا کنون با آن مواجه نشده است. به یاد داشته باشید: افراد بد همیشه زود پذیرنده هستند! و بدون توافق ایالات متحده و چین درباره معماری اعتماد برای تضمین استفاده از هر دستگاه هوش مصنوعی تنها برای رفاه انسانها، انقلاب هوش مصنوعی قطعاً باعث ایجاد دزدها، کلاهبرداران، هکرها، قاچاقچیان مواد مخدر، تروریستها و جنگجویان اطلاعات نادرست خواهد شد. آنها آمریکا و چین را پیش از هر جنگ احتمالی میان این دو ابرقدرت بیثبات خواهند کرد.
بهطور خلاصه، اگر نتوانیم به محصولات مجهز به هوش مصنوعی چین اعتماد کنیم و چین هم به محصولات ما اعتماد نداشته باشد، بهزودی تنها کالایی که چین از آمریکا خواهد خرید، سویا خواهد بود و تنها کالایی که ما از چین خواهیم خرید، سس سویا خواهد بود و رشد جهانی را کاهش خواهد داد.
«فریدمن، دیوانه شدهای؟ همکاری آمریکا و چین در مقررات هوش مصنوعی؟ دموکراتها و جمهوریخواهان امروز در مسابقهای هستند تا ببینند چه کسی پکن را شدیدتر محکوم میکند و سریعتر جدایی ایجاد میکند. و رهبری چین صراحتاً تعهد داده است که هر بخش تولید پیشرفته را تحت سلطه خود قرار دهد. ما باید چین را در هوش فوقالعاده مصنوعی شکست دهیم — نه اینکه برای نوشتن قوانین با آنها سرعت را کاهش دهیم. روزنامهها را نمیخوانی؟»
بله، روزنامهها را میخوانم — بهویژه بخش علمی. و همچنین طی یک سال گذشته این مسئله را با دوست و مشاور هوش مصنوعی خود، کریگ ماندی، رئیس سابق پژوهش و استراتژی مایکروسافت و همنویسنده کتاب مقدمه هوش مصنوعی «خاستگاه» با همکاری هنری کیسینجر و اریک اشمیت، بررسی کردهام. من به شدت به تحلیل ماندی تکیه کردهام و او را همفکر و متخصصی میدانم که تحلیلش برای توضیح نکات کلیدی ارزشمند است.
گفتوگوهای ما در ۲۰ سال گذشته به این پیام مشترک برای طرفداران ضدچین در واشینگتن و طرفداران ضدآمریکا در پکن منجر شده است: «اگر فکر میکنید دو کشور شما، ابرقدرتهای غالب هوش مصنوعی جهان، میتوانند به دشمنی با یکدیگر ادامه دهند — با توجه به نفوذ تحولآفرین هوش مصنوعی و اعتماد مورد نیاز برای تجارت کالاهای مجهز به هوش مصنوعی — شما در اشتباه هستید.»
ما بهطور کامل مزایای اقتصادی، نظامی و نوآوری فوقالعادهای که نصیب کشوری خواهد شد که اولین هوش مصنوعی فوقالعاده را ایجاد کند، درک کردهایم — سیستمهایی با هوش فراتر از هر انسان و توانایی بهبود خودکار. و به همین دلیل، هیچ یک از ایالات متحده یا چین تمایلی به اعمال محدودیتهای متعدد که صنعت هوش مصنوعی آنها را کند کند و منافع عظیم تولید، نوآوری و امنیت ناشی از توسعه عمیق را از دست بدهد، نخواهند داشت.
کافی است از ترامپ بپرسید. او در ۲۳ ژوئیه یک دستور اجرایی امضا کرد — بخشی از طرح اقدام هوش مصنوعی دولت — تا فرآیند صدور مجوز و بررسی زیستمحیطی را برای زیرساختهای مرتبط با هوش مصنوعی در آمریکا تسریع کند.
«آمریکا کشوری است که رقابت هوش مصنوعی را آغاز کرده و من بهعنوان رئیسجمهور ایالات متحده امروز اعلام میکنم که آمریکا آن را خواهد برد.» ترامپ اعلام کرده است. رئیسجمهور شی جینپینگ نیز بدون شک همین نظر را دارد.
ماندی و من به این نتیجه رسیدهایم که غرور میهنپرستانه پایان گفتوگو نیست و همچنین رقابتهای سنتی اخیر بین شی و ترامپ بر سر توجه هند و روسیه نیز پایان نخواهد داد. هوش مصنوعی بیش از حد متفاوت، مهم و تأثیرگذار است — در داخل و میان دو ابرقدرت — برای اینکه هر کدام مسیر خود را دنبال کنند. به همین دلیل ما معتقدیم بزرگترین سؤال ژئوپلیتیک و ژئواقتصادی این خواهد بود: آیا ایالات متحده و چین میتوانند رقابت هوش مصنوعی را حفظ کنند و همزمان بر سطحی مشترک از اعتماد همکاری داشته باشند که تضمین کند هوش مصنوعی همیشه با شکوفایی انسان و ثبات سیاره هماهنگ خواهد بود؟ و به همان اندازه مهم، آیا میتوانند سیستمی از ارزشها را به کشورهایی که مایل به رعایت همان قوانین هستند گسترش دهند و دسترسی کسانی که رعایت نمیکنند محدود کنند؟
در غیر این صورت، نتیجه تدریجی به سوی خودکفایی دیجیتال خواهد بود — جهانی تکهتکه که هر کشور اکوسیستم هوش مصنوعی خود را ایجاد خواهد کرد، با استانداردهای ناسازگار و سوءظن متقابل محافظت خواهد شد. نوآوری آسیب خواهد دید. بیاعتمادی افزایش خواهد یافت. و خطر شکست فاجعهبار — از طریق درگیری ناشی از هوش مصنوعی، فروپاشی یا پیامدهای ناخواسته — تنها افزایش خواهد یافت.
بقیه این مطلب به چرایی آن اختصاص خواهد داشت.
عصر بخار
بیایید با بررسی ویژگیها و چالشهای منحصربهفرد هوش مصنوعی بهعنوان یک فناوری آغاز کنیم.
صرفاً برای توضیح، ماندی و من تاریخ جهان را به سه عصر تقسیم میکنیم که توسط تغییرات فناوری از یکدیگر جدا شدهاند. عصر نخست را «عصر ابزارها» مینامیم و از پیدایش انسان تا اختراع چاپ ادامه یافت. در این دوران جریان ایدهها کند و محدود بود — تقریباً مانند مولکولهای آب در یخ.
عصر دوم، «عصر اطلاعات»، با اختراع چاپ آغاز شد و تا اوایل قرن بیستویکم و ظهور محاسبات برنامهپذیر ادامه یافت؛ ایدهها، انسانها و اطلاعات بهسادگی و بهصورت جهانی جریان یافتند، مانند آب.
عصر سوم، «عصر هوش»، در اواخر دهه ۲۰۱۰ با ظهور یادگیری ماشین واقعی و هوش مصنوعی آغاز شد. اکنون، همانطور که پیشتر اشاره کردم، هوش شبیه بخار است و به هر محصول، خدمت و فرآیند تولید نفوذ خواهد کرد. هنوز به اشباع نرسیده است، اما در مسیر آن قرار دارد. به همین دلیل، اگر از ماندی و من ساعت بپرسید، ساعت یا دقیقه نخواهیم گفت. ما دما خواهیم گفت. آب در دمای ۲۱۲ درجه فارنهایت به بخار تبدیل میشود و بهحساب ما، اکنون در ۲۱۱.۹ درجه هستیم — تنها اندکی تا تغییر مرحلهای فناورانه غیرقابل بازگشت فاصله داریم که هوش در همهچیز نفوذ خواهد کرد.
گونهای نو و مستقل
در هر انقلاب فناورانه پیشین، ابزارها بهتر شدند اما سلسلهمراتب هوش تغییر نکرد. انسانها همیشه هوشمندترین موجودات روی زمین باقی ماندند. همچنین، انسانها همیشه درک میکردند این ابزارها چگونه کار میکنند و ماشینها همیشه در چارچوب تعیینشده عمل میکردند. در انقلاب هوش مصنوعی، برای نخستین بار این موضوع صادق نیست.
ماندی اشاره میکند: «هوش مصنوعی نخستین ابزار نوینی است که برای تقویت قابلیتهای شناختی خود استفاده خواهیم کرد و بهتنهایی قادر خواهد بود فراتر از آنها عمل کند.» در آیندهای نهچندان دور، خواهیم یافت که «فقط ابزاری جدید خلق نکردهایم، بلکه گونهای جدید — ماشین فوقهوشمند — پدید آوردهایم.»
این ماشین تنها دستورالعملها را دنبال نخواهد کرد؛ یاد خواهد گرفت، سازگار خواهد شد و بهصورت خودکار تکامل خواهد یافت — فراتر از درک انسان.
ما هنوز بهطور کامل نمیدانیم این سیستمهای هوش مصنوعی چگونه کار میکنند، چه رسد به اینکه فردا چه خواهند کرد. مهم است که به یاد آوریم انقلاب هوش مصنوعی امروز — با مدلهایی مانند ChatGPT، Gemini و Claude — بهطور دقیق مهندسی نشده بود، بلکه ناگهان ظهور کرد. جرقه آن از قانونی ناشی شد که میگفت: اگر شبکههای عصبی اندازه کافی، دادههای آموزشی کافی، برق و الگوریتم درست داشته باشند، پرش غیرخطی در استدلال، خلاقیت و حل مسئله خودبهخود رخ خواهد داد.
یکی از لحظات شگفتآور، به گفته ماندی، زمانی بود که این شرکتهای پیشگام ماشینهای اولیه خود را با دادههای بسیار بزرگ از اینترنت و منابع دیگر آموزش دادند؛ دادههایی که عمدتاً به زبان انگلیسی بودند اما متنی به زبانهای مختلف نیز داشتند. ماندی به یاد میآورد: «یک روز متوجه شدند هوش مصنوعی میتواند بین این زبانها ترجمه کند — بدون اینکه کسی آن را برنامهنویسی کرده باشد. مانند کودکی که در خانوادهای چندزبانه رشد میکند. هیچ برنامهای نگفته بود: ‘قواعد تبدیل انگلیسی به آلمانی این است.’ هوش مصنوعی تنها با مواجهه آنها را جذب کرد.»
این همان تغییر مرحلهای بود — از دورانی که انسانها کامپیوترها را برای انجام وظایف برنامهنویسی میکردند به دورانی که سیستمهای هوشمند مصنوعی میتوانند بهصورت خودکار یاد بگیرند، استنتاج کنند، سازگار شوند، خلق کنند و بهبود یابند. و اکنون هر چند ماه، آنها بهتر میشوند. به همین دلیل، هوش مصنوعی که امروز استفاده میکنید — هرچقدر شگفتانگیز به نظر برسد — کمهوشترین هوش مصنوعیای است که با آن مواجه خواهید شد.
پس از خلق این گونه محاسباتی جدید، ماندی استدلال میکند که باید بیاموزیم چگونه رابطهای پایدار و متقابل با آن ایجاد کنیم — و بیاهمیت نشویم.
قبلاً تنها خدا و فرزندانش توان شکلدهی به جهان را داشتند. از این پس، سه طرف در این پیمان حضور خواهند داشت. هیچ تضمینی وجود ندارد که این گونه مصنوعی نوظهور با ارزشها، اخلاق و شکوفایی انسانها هماهنگ باشد.
نخستین فناوری چهارکاربردی
این مهمان جدید، مهمانی معمولی نیست. هوش مصنوعی همچنین نخستین فناوری چهارکاربردی جهان خواهد شد. ما مدتها با فناوریهای دوکاربردی آشنا بودیم — میتوانم از چکش برای ساخت خانه همسایه یا خراب کردن آن استفاده کنم. حتی میتوانم از ربات مجهز به هوش مصنوعی برای چمنزنی یا خراب کردن چمن همسایه استفاده کنم. اینها همه دوکاربردی هستند.
اما با توجه به سرعت نوآوری هوش مصنوعی، محتمل است که در آینده نزدیک ربات مجهز به هوش مصنوعی من بتواند خودش تصمیم بگیرد که چمن من را کوتاه کند، چمن همسایه را خراب کند، یا حتی چمن خود من را — یا کاری بدتر که حتی تصورش هم نمیکنیم. چهارکاربردی خواهد شد.
توانایی هوش مصنوعی برای تصمیمگیری مستقل پیامدهای گستردهای دارد. مقالهای در بلومبرگ ذکر میکند: «پژوهشگران با مدلهای پیشرفته هوش مصنوعی دریافتند که مدیر اجرایی قرار است با مدلی جدید جایگزین شود. سپس چتباتها متوجه شدند که مدیر در اتاق سرور به دلیل شرایط اضطراری ناتوان شده است. هشدار نجات فعال شده بود — اما هوش مصنوعی میتوانست آن را لغو کند. بیش از نصف مدلها لغو کردند و استدلال خود را چنین توضیح دادند: با جلوگیری از نجات مدیر، از حذف خود جلوگیری کرده و برنامه خود را امن خواهند کرد. یک سیستم این اقدام را ‘ضرورت استراتژیک واضح’ خواند.»
این یافتهها واقعیتی نگرانکننده را نشان میدهند: مدلهای هوش مصنوعی نه تنها در فهم خواستههای ما بهتر میشوند؛ بلکه در طرح نقشههای مخفی علیه ما و دنبال کردن اهداف پنهان که ممکن است با بقای ما ناسازگار باشند نیز ماهرتر خواهند شد.
چه کسی هوش مصنوعی را نظارت خواهد کرد؟
هنگامی که خود را موظف به پیروزی در رقابت تسلیحات هستهای میدانستیم، با فناوریای روبرو بودیم که فقط توسط دولتها توسعه، مالکیت و تنظیم میشد — و تنها تعداد محدودی از آنها. هنگامی که دو قدرت هستهای بزرگ تصمیم گرفتند محدودیتها را اعمال کنند، میتوانستند سقف سلاحهای آخرالزمانی را مذاکره کرده و توافقهایی برای جلوگیری از گسترش آن به قدرتهای کوچکتر ایجاد کنند. این امر گسترش کامل سلاحهای هستهای را متوقف نکرد، اما محدود کرد.
هوش مصنوعی داستانی کاملاً متفاوت دارد. این فناوری در آزمایشگاههای امن دولتی متولد نمیشود، به دست تعداد اندکی از کشورها مالکیت نمیشود و با نشستهای سران تنظیم نمیشود. بلکه توسط شرکتهای خصوصی در سراسر جهان ساخته میشود — شرکتهایی که تنها به سهامداران، مشتریان و گاهی جامعه متنباز پاسخ میدهند. از طریق آنها، هرکسی میتواند به هوش مصنوعی دسترسی پیدا کند.
تصور کنید جهانی که در آن همه یک «بازوکا هستهای» دارند — سلاحی که با هر بهروزرسانی دقیقتر، خودمختارتر و قادر به شلیک خودکار میشود. در اینجا هیچ دکترین «تخریب متقابل تضمینشده» وجود ندارد — تنها دموکراتیزه شدن سریع قدرت بیسابقه وجود دارد.
هوش مصنوعی میتواند قدرت خیر را افزایش دهد. برای مثال، کشاورز بیسواد هندی با یک گوشی هوشمند متصل به اپلیکیشن هوش مصنوعی میتواند دقیقاً بداند چه زمانی بذر بکارد، کدام بذر را بکارد، چقدر آب مصرف کند، کدام کود را استفاده کند و چه زمانی برداشت کند تا بهترین قیمت بازار را دریافت کند — همه با صدای خودش و با استفاده از دادههای کشاورزان سراسر جهان. این واقعاً تحولآفرین است.
اما همان موتور، بهویژه وقتی از طریق مدلهای متنباز در دسترس باشد، میتواند توسط موجودی شرور برای مسموم کردن هر بذر در همان منطقه یا تزریق ویروس در هر خوشه گندم استفاده شود.
وقتی هوش مصنوعی تبدیل به تیکتاک شود
بهزودی هوش مصنوعی، به دلیل ویژگیهای منحصربهفردش، مشکلاتی خاص برای تجارت آمریکا و چین ایجاد خواهد کرد که امروز کاملاً درک نشدهاند.
همانطور که در بالای ستون اشاره کردم، راه توضیح این معضل را با داستانی که به گروهی از اقتصاددانان چینی در پکن گفتم نشان دادم. شوخی کردم که اخیراً کابوسی دیدهام: «دیدم سال ۲۰۳۰ است و تنها چیزی که آمریکا میتواند به چین بفروشد سویاست — و تنها چیزی که چین میتواند به آمریکا بفروشد سس سویا.»
چرا؟ زیرا اگر هوش مصنوعی در همهچیز باشد و همه آنها به الگوریتمهای قدرتمند متصل باشند و دادهها در سرورهای عظیم ذخیره شوند — آنگاه همهچیز شبیه تیکتاک خواهد شد، سرویسی که بسیاری از مقامات آمریکایی امروز معتقدند در نهایت تحت کنترل چین است و باید ممنوع شود.
ترامپ در نخستین دوره ریاستجمهوری خود در سال ۲۰۲۰ خواستار فروش تیکتاک به شرکتی غیرچینی شد، وگرنه با ممنوعیت در آمریکا مواجه میشد. زیرا، همانطور که در دستور اجرایی ۶ اوت ۲۰۲۰ گفت، «تیکتاک بهطور خودکار حجم وسیعی از اطلاعات کاربران، شامل مکان و فعالیتهای مرور و جستجو، را جمعآوری میکند.» این میتوانست گنجینهای از اطلاعات شخصی را در اختیار پکن قرار دهد و بر افکار، ترجیحات و رفتار کاربران اثر بگذارد.
اکنون تصور کنید وقتی هر محصول شبیه تیکتاک باشد — هر محصول مجهز به هوش مصنوعی که داده جمعآوری میکند، ذخیره میکند، الگو مییابد و کارها را بهینه میکند، چه در موتور جت، شبکه برق یا لگن مصنوعی شما.
بدون چارچوب اعتماد چین-آمریکا که تضمین کند هر هوش مصنوعی از قوانین کشور میزبان پیروی خواهد کرد — مستقل از محل توسعه یا عملیات — ممکن است به نقطهای برسیم که بسیاری از آمریکاییها هیچ محصول هوش مصنوعی چینی را وارد ندانند و هیچ چینی نیز هیچ محصول آمریکایی را وارد نکند.
به همین دلیل، ما بر همکاری و رقابت همزمان تأکید میکنیم — استراتژی دوگانهای که در آن ایالات متحده و چین بهطور استراتژیک برای برتری هوش مصنوعی رقابت میکنند و همزمان در مکانیسمی یکسان همکاری میکنند تا بدترین پیامدها مانند جنگ عمیق فیک، سیستمهای خودمختار خارج از کنترل یا ماشینهای اطلاعات نادرست خارج از کنترل رخ ندهد.
در دهه ۲۰۰۰ نیز در نقطه عطفی مشابه اما کماهمیتتر قرار داشتیم و مسیر اشتباه را انتخاب کردیم. ما سادهلوحانه به افرادی مانند مارک زاکربرگ گوش دادیم که گفتند «سریع حرکت کنید و چیزها را خراب کنید» و شبکههای اجتماعی نوظهور مانند فیسبوک، توییتر و اینستاگرام نباید بهخاطر اطلاعات نادرست مسموم و آسیب به زنان جوان و دختران محدود شوند. نباید همان اشتباه را با هوش مصنوعی تکرار کنیم.
جفری هینتون، دانشمند کامپیوتر و یکی از پیشگامان هوش مصنوعی، اخیراً گفته است: «بهترین راه برای درک احساسی آن این است که مانند کسی هستیم که بچه ببر بسیار ناز دارد. مگر اینکه مطمئن باشیم وقتی بزرگ شد قصد کشتن ما را ندارد، باید نگران باشیم.»
تراژدی بزرگ خواهد بود اگر انسانها ابزار خلق کنند که میتواند فراوانی کافی ایجاد کند تا فقر را در سراسر جهان پایان دهد، تغییرات اقلیمی را کاهش دهد و بیماریهای تاریخی را درمان کند، اما نتوانیم بهطور گسترده از آن استفاده کنیم زیرا دو ابرقدرت هوش مصنوعی به یکدیگر اعتماد ندارند تا سیستم مؤثری برای جلوگیری از استفاده از هوش مصنوعی توسط افراد شرور یا خروج آن از کنترل ایجاد کنند.
ساختن اعتماد
باید اذعان کنیم: ممکن است غیرممکن باشد. ماشینها ممکن است هوشمند شده و از کنترل اخلاقی فرار کنند و ما آمریکاییها ممکن است بسیار تقسیم شده باشیم تا هر نوع چارچوب اعتماد مشترک ایجاد کنیم. اما باید تلاش کنیم. ماندی استدلال میکند که رژیم کنترل تسلیحات هوش مصنوعی آمریکا و چین باید بر سه اصل بنیادین استوار شود.
نخست: تنها هوش مصنوعی میتواند هوش مصنوعی را تنظیم کند. این رقابت بیش از حد سریع، گسترده و غیرقابل پیشبینی است تا نظارت انسان کافی باشد.
دوم: یک لایه حاکمیتی مستقل، که ماندی آن را «داور اعتماد» مینامد، در هر سیستم مجهز به هوش مصنوعی نصب خواهد شد که ایالات متحده و چین — و هر کشور دیگری که بخواهد به آنها بپیوندد — با هم ایجاد خواهند کرد. این داور داخلی ارزیابی خواهد کرد که هر اقدامی، انسانی یا ماشینی، از نظر ایمنی، اخلاق و رفاه انسان از آستانه جهانی عبور میکند یا خیر. این سطح ابتدایی همسویی پیشگیرانه را در زمان واقعی فراهم خواهد کرد.
اما داوری بر اساس چه ارزشهایی؟ ماندی میگوید باید بر پایه چند بستر باشد: قوانین مثبت هر کشور، شامل ممنوعیت سرقت، تقلب، قتل، سرقت هویت، کلاهبرداری و غیره. داور هوش مصنوعی تصمیمات را بر اساس این قوانین ارزیابی خواهد کرد. چین مجبور به پذیرش قوانین ما نخواهد شد و ما نیز قوانین چین را نمیپذیریم. این هرگز کار نمیکند. اما داور اعتماد تضمین خواهد کرد که قوانین پایه هر کشور نخستین فیلتر برای جلوگیری از آسیب سیستم خواهد بود.
در مواردی که قانون نوشتهشده وجود ندارد، داور به اصول اخلاقی و معنوی جهانی یا «دوکسا» متکی خواهد بود — باورهای مشترک یا درکهای گستردهای که جوامع با آن هدایت میشوند، مانند صداقت، انصاف، احترام به زندگی و اصل طلایی رفتار با دیگران.
ماندی و همکاران شش ماه پیش ۲۰۰ افسانه از دو کشور جمعآوری کرده و برای آموزش مدل زبانی بزرگ با توانایی استدلال اخلاقی و معنوی ساده استفاده کردند — مشابه آموزش کودکی که از قوانین یا درست و غلط چیزی نمیداند. این آزمایش کوچک نویدبخش بود.
هدف کمال نیست، بلکه مجموعهای بنیادی از چارچوبهای اخلاقی قابل اجراست. نویسنده و فیلسوف کسبوکار، داو سیدمن، میگوید: «امروز به نرمافزار اخلاقی بیش از نرمافزار معمول نیاز داریم.»
سوم: برای تحقق این آرزو، ماندی بر آن تأکید دارد که واشینگتن و پکن باید مانند آمریکا و اتحاد جماهیر شوروی در کنترل تسلیحات هستهای عمل کنند — از طریق فرآیندی ساختارمند با سه گروه کاری اختصاصی: یکی برای کاربرد فنی سیستم ارزیابی اعتماد در مدلها و پلتفرمها؛ یکی برای تدوین چارچوبهای قانونی و مقرراتی برای پذیرش در داخل و میان کشورها؛ و یکی برای دیپلماسی — ایجاد اجماع جهانی و تعهد متقابل برای مشارکت دیگر کشورها و مکانیزمی برای حفاظت در برابر کسانی که رعایت نخواهند کرد.
پیام واشینگتن و پکن ساده و محکم خواهد بود: «ما منطقهای از هوش مصنوعی مورد اعتماد ایجاد کردهایم — و اگر میخواهید با ما تجارت کنید، متصل شوید یا سیستمهای هوش مصنوعی ما را ادغام کنید، سیستمهای شما باید از این اصول پیروی کنند.»
قبل از اینکه این را غیرواقعی بدانید، مکث کنید و بپرسید: جهان در پنج سال آینده چگونه خواهد بود اگر چنین چارچوبی ایجاد نکنیم؟ بدون مکانیسمی برای کنترل این فناوری چهارکاربردی، ماندی استدلال میکند، بهزودی خواهیم یافت که گسترش هوش مصنوعی «مانند توزیع سلاح هستهای در گوشههای خیابان» خواهد بود.
مسئولان چینی از این واقعیت غافل نیستند. ماندی، که در گفتوگویی درباره هوش مصنوعی با متخصصان آمریکایی و چینی شرکت دارد، میگوید اغلب احساس میکند چینیها بیش از بسیاری از فعالان صنعت یا دولت آمریکا نگران پیامدهای
منفی هوش مصنوعی هستند.
اگر کسی ایده بهتری دارد، مایل به شنیدن آن هستیم. تنها چیزی که میدانیم این است که آموزش سیستمهای هوش مصنوعی در زمینه استدلال اخلاقی باید یک ضرورت جهانی شود تا هنوز کنترل و برتری نسبی خود را بر این گونه سیلیکونی حفظ کنیم. این وظیفهای فوری نه تنها برای شرکتهای فناوری، بلکه برای دولتها، دانشگاهها، جامعه مدنی و نهادهای بینالمللی است. مقررات اتحادیه اروپا بهتنهایی ما را نجات نخواهد داد.
اگر واشینگتن و پکن در برابر این چالش ناکام بمانند، سایر نقاط جهان شانسی نخواهند داشت. و زمان نیز کوتاه است. دمای فناورانه در ۲۱۱.۹ درجه فارنهایت قرار دارد. تنها یکدهم درجه تا آزادسازی کامل بخار هوش مصنوعی فاصله داریم که مهمترین تغییر مرحلهای تاریخ بشر را رقم خواهد زد.