هشدار آخرالزمانی پدرخوانده هوش مصنوعی
هوش مصنوعی از زمان مطرح شدنش در چند دهه قبل تا امروز راه زیادی را پیموده است و اگرچه در دهههای قبل بارها به بنبست خورد حتی متوقف شد و دچار زمستان شد، اما در چند سال اخیر هوش مصنوعی با سرعت چشمگیری در حال پیشرفت است و این پیشرفت سریع خیلیها را به هراس انداخته است.
هوش مصنوعی از زمان مطرح شدنش در چند دهه قبل تا امروز راه زیادی را پیموده است و اگرچه در دهههای قبل بارها به بنبست خورد حتی متوقف شد و دچار زمستان شد، اما در چند سال اخیر هوش مصنوعی با سرعت چشمگیری در حال پیشرفت است و این پیشرفت سریع خیلیها را به هراس انداخته است. جفری هینتون، دانشمند کامپیوتر بریتانیایی-کانادایی یکی از آنهاست که نگرانی بسیار جدیاش را در این باره بارها اظهار کرده است.
هینتون که عمر خود را وقت مطالعهی شبکههای عصبی کرده که اغلب کلید هوش مصنوعی هستند و به پدرخواندهی هوش مصنوعی معروف است، از احتمال افزایش نابودی بشریت توسط هوش مصنوعی در سهدهه آینده صحبت کرده و هشدار داده است که سرعت تغییر در این فناوری «بسیار سریعتر» از حد انتظار است.
هینتون در حالی این حرفها را مطرح کرده که بسیاری از شرکتها در جهان هوش مصنوعی را راهحل همهچیز میدانند و برای تبلیغ آن دست به هر کاری میزنند بدون اینکه به سازگاری اخلاقی هوش مصنوعی توجهی داشته باشند. او پیش از این هم ابراز نگرانی کرده بود که هوش مصنوعی مولد در کوتاهمدت بتواند به موجی از اطلاعات نادرست دامن بزند و شاید دیگر نتوانید بفهمید که چه چیزی درست است. نگرانی دیگری که او مطرح کرده بود این بود که این فناوری نهتنها برخی کارها را حذف کند، بلکه بهطور کامل جایگزین برخی از مشاغل شود.
سال گذشته، هینتون پس از استعفا از شغل خود در گوگل، به تیتر خبرها تبدیل شد تا آشکارتر در مورد خطرات ناشی از توسعهی بدون محدودیت هوش مصنوعی صحبت کند و به ابراز نگرانیهایی مبنی بر این پرداخت که «بازیگران بد» از این فناوری برای آسیب رساندن به دیگران استفاده خواهند کرد.
یکی از نگرانیهای کلیدی فعالان ایمنی هوش مصنوعی این است که ایجاد هوش عمومی مصنوعی یا سیستمهایی که هوشمندتر از انسان هستند، میتواند منجر به این شود که این فناوری با فرار از کنترل انسان، یک تهدید وجودی ایجاد کند. این دانشمند همچنین پیش از این در مورد امکان توسعهی سلاحهای کاملاً خودمختار و تمایل مدلهای هوش مصنوعی به یادگیری رفتارهای عجیب و غریب از دادههای آموزشی ابراز نگرانی کرده بود.
پروفسور جفری هینتون، که امسال جایزهی نوبل فیزیک را بهخاطر کارش در هوش مصنوعی دریافت کرد، در تازهترین گفتوگویش که با رادیو چهار بیبیسی داشته دوباره هشدار دیگری دربارهی هوش مصنوعی داده که بسیار آخرالزمانی بهنظر میرسد، اینکه احتمال 10 تا 20 درصدی وجود دارد که هوش مصنوعی در سه دههی آینده منجر به انقراض بشریت شود. پیش از این هینتون گفته بود که 10 درصد احتمال دارد که این فناوری نتایج فاجعهباری برای بشریت ایجاد کند اما حالا این رقم تا 20 درصد هم رسیده است.
بهزعم هینتون؛ «ما قبلاً هرگز مجبور نبودهایم با چیزهایی باهوشتر از خود برخورد کنیم و چند نمونه میشناسید که یک موجود باهوشتر توسط موجود کمهوشتر کنترل شود؟ نمونههای بسیار کمی وجود دارد. مثلاً یک مادر و نوزاد را در نظر بگیرید، تکامل کار زیادی کرده تا نوزاد بر مادر کنترل داشته باشد، اما این تنها نمونهای است که من میشناسم.»
هینتون متولد لندن، استاد بازنشستهی دانشگاه تورنتو، گفت که انسانها در مقایسه با سیستمهای هوش مصنوعی بسیار قدرتمند، مانند کودکان نوپا خواهند بود.
هینتون با تأمل در مورد اینکه فکر میکرد توسعهی هوش مصنوعی زمانی که کارش را روی این فناوری آغاز کرد به کجا میرسد؟ گفت: «فکر نمیکردم این جایی باشد که ما الان هستیم. فکر میکردم در آیندهای دورتر به اینجا خواهیم رسید.»
با هشدارهایی که پدرخواندهی هوش مصنوعی داده، چشماندازی بسیار ترسناک را میتوان برای آن انتظار داشت؛ چراکه هر آن میتوان انتظار داشت که هوش مصنوعی بد بر نوع خوب آن پیروز شود.