انرژی پنهان هوش مصنوعی، راز بزرگ شرکتهای فناوری
در بولتن هوش مصنوعی امروز، بخشی دیگر را از گزارش کلیدی نشریه معروف MIT ارائه میکنیم که به بحث از ابعاد مهم تأمین انرژی سامانههای هوش مصنوعی اختصاص دارد.

در ادامه مطلب روز گذشته درمورد انرژی مصرفی هوش مصنوعی، بخش دوم گزارش نشریه را منتشر کردیم:
اگر نمودارهایی را دیدهاید که مصرف انرژی یک پرسش در برابر یک مدل هوش مصنوعی را تخمین میزنند، شاید تصور کرده باشید که این محاسبه شبیه برآورد مصرف سوخت یک خودرو یا رتبهبندی انرژی یک ماشین ظرفشویی است؛ یعنی عددی قابل اندازهگیری با روشی مشترک و پذیرفتهشده برای محاسبه. اگر چنین پنداشتهاید، در اشتباه بودهاید.
در واقعیت، عواملی چون نوع و اندازه مدل هوش مصنوعی، نوع خروجی مورد انتظار، و شمار بیشماری از متغیرهای خارج از کنترل کاربر—از جمله اینکه کدام شبکه برق به مرکز داده متصل است یا در چه ساعتی از شبانهروز درخواست شما پردازش میشود—میتوانند سبب شوند که یک پرسش هزاران برابر بیشتر از پرسشی دیگر انرژی مصرف کند و کربن منتشر نماید.
افزون بر آن، وقتی از بیشتر مدلهای هوش مصنوعی استفاده میکنید—چه از طریق یک اپلیکیشن روی تلفن همراه مانند اینستاگرام، و چه از طریق وبسایتی مانند ChatGPT—بخش عمدهای از آنچه پس از ارسال پرسش شما در مرکز داده رخ میدهد، در هالهای از ابهام باقی میماند. عواملی نظیر اینکه کدام مرکز داده در کجای جهان پرسش شما را پردازش کرده است، چه میزان انرژی برای آن صرف شده، و منابع تأمینکننده این انرژی تا چه حد آلاینده بودهاند، معمولاً فقط در اختیار شرکتهای مالک مدلها قرار دارند.
این وضعیت در مورد بیشتر مدلهای شناختهشده بازار، از جمله ChatGPT متعلق به OpenAI، Gemini محصول Google، و Claude از شرکت Anthropic نیز صادق است؛ مدلهایی که از آنها با عنوان «بسته» (closed) یاد میشود.
جزئیات کلیدی مربوط به مصرف انرژی، بهعنوان اسرار تجاری نزد شرکتها محفوظ نگه داشته میشوند؛ گاه از بیم ایجاد بازتاب منفی در رسانهها، و گاه به دلیل مزیت رقابتی. این شرکتها انگیزهای اندک برای انتشار چنین اطلاعاتی دارند، و تاکنون نیز چنین نکردهاند.
«ارائهدهندگان مدلهای بسته، یک جعبه سیاه کامل تحویل ما میدهند»
بوریس گامازایچیکوف، رئیس بخش پایداری هوش مصنوعی در شرکت Salesforce، میگوید که «ارائهدهندگان مدلهای بسته، یک جعبه سیاه کامل تحویل ما میدهند». او تأکید میکند که بدون شفافسازی بیشتر از سوی شرکتها، ما نهتنها تخمینهای دقیقی در اختیار نداریم، بلکه عملاً چیز زیادی برای استناد هم نداریم.
در غیاب چنین اطلاعاتی، چه راهکاری باقی میماند؟
پاسخ این است: مدلهای متنباز (open-source). این مدلها را میتوان دانلود و بازتنظیم کرد، و پژوهشگران میتوانند با استفاده از ابزارهای تخصصی، انرژی مورد نیاز کارت گرافیک H100 را برای انجام یک کار خاص اندازهگیری کنند. این مدلها بهشدت محبوباند؛ شرکت Meta اعلام کرده است که مدلهای Llama آن، تا آوریل امسال بیش از ۱.۲ میلیارد بار دانلود شدهاند. بسیاری از شرکتها نیز زمانی که میخواهند بر خروجیهای مدل تسلط بیشتری داشته باشند، بهجای استفاده از مدلهای بستهای مانند ChatGPT، از مدلهای متنباز بهره میگیرند.
با این حال، حتی اگر انرژی مصرفی GPU قابل اندازهگیری باشد، همچنان مصرف انرژی سایر بخشها مانند CPU، فنها و تجهیزات جانبی نادیده گرفته میشود. پژوهشی که در سال ۲۰۲۴ توسط مایکروسافت انجام شد، نشان داد که دو برابر کردن انرژی مصرفی GPU، تقریب مناسبی از مصرف کل انرژی فرآیند استنتاج (inference) مدل زبانی بزرگ ارائه میدهد.
در حال حاضر، اندازهگیری مدلهای متنباز پیشرو و افزودن برآوردی از سایر اجزای مصرفکننده انرژی، کاملترین تصویریست که از میزان انرژی مورد نیاز برای پاسخگویی یک مدل به یک پرسش در اختیار داریم.
با اینحال باید به خاطر داشت که کاربردهای امروزی هوش مصنوعی—از نوشتن فهرست خرید گرفته تا تولید ویدیوهای سوررئالیستی—بسیار سادهتر از کاربردهاییست که در آیندهای نزدیک در قالب سیستمهای خودکار و عاملیتمحور مورد استفاده قرار خواهند گرفت؛ آیندهای که شرکتهای فعال در این حوزه با شتاب به سوی آن حرکت میکنند.
در این باره، در آینده بیشتر خواهیم گفت.