| کد مطلب: ۴۳۷۰۱

انرژی پنهان هوش مصنوعی، راز بزرگ شرکت‌های فناوری

در بولتن هوش مصنوعی امروز، بخشی دیگر را از گزارش کلیدی نشریه معروف MIT ارائه می‌کنیم که به بحث از ابعاد مهم تأمین انرژی سامانه‌های هوش مصنوعی اختصاص دارد.

انرژی پنهان هوش مصنوعی، راز بزرگ شرکت‌های فناوری

در ادامه مطلب روز گذشته درمورد انرژی مصرفی هوش مصنوعی، بخش دوم گزارش نشریه را منتشر کردیم:

اگر نمودارهایی را دیده‌اید که مصرف انرژی یک پرسش در برابر یک مدل هوش مصنوعی را تخمین می‌زنند، شاید تصور کرده باشید که این محاسبه شبیه برآورد مصرف سوخت یک خودرو یا رتبه‌بندی انرژی یک ماشین ظرف‌شویی است؛ یعنی عددی قابل اندازه‌گیری با روشی مشترک و پذیرفته‌شده برای محاسبه. اگر چنین پنداشته‌اید، در اشتباه بوده‌اید.

در واقعیت، عواملی چون نوع و اندازه مدل هوش مصنوعی، نوع خروجی مورد انتظار، و شمار بی‌شماری از متغیرهای خارج از کنترل کاربر—از جمله این‌که کدام شبکه برق به مرکز داده متصل است یا در چه ساعتی از شبانه‌روز درخواست شما پردازش می‌شود—می‌توانند سبب شوند که یک پرسش هزاران برابر بیشتر از پرسشی دیگر انرژی مصرف کند و کربن منتشر نماید.

افزون بر آن، وقتی از بیشتر مدل‌های هوش مصنوعی استفاده می‌کنید—چه از طریق یک اپلیکیشن روی تلفن همراه مانند اینستاگرام، و چه از طریق وب‌سایتی مانند ChatGPT—بخش عمده‌ای از آنچه پس از ارسال پرسش شما در مرکز داده رخ می‌دهد، در هاله‌ای از ابهام باقی می‌ماند. عواملی نظیر این‌که کدام مرکز داده در کجای جهان پرسش شما را پردازش کرده است، چه میزان انرژی برای آن صرف شده، و منابع تأمین‌کننده این انرژی تا چه حد آلاینده بوده‌اند، معمولاً فقط در اختیار شرکت‌های مالک مدل‌ها قرار دارند.

این وضعیت در مورد بیشتر مدل‌های شناخته‌شده بازار، از جمله ChatGPT متعلق به OpenAI، Gemini محصول Google، و Claude از شرکت Anthropic نیز صادق است؛ مدل‌هایی که از آن‌ها با عنوان «بسته» (closed) یاد می‌شود.

جزئیات کلیدی مربوط به مصرف انرژی، به‌عنوان اسرار تجاری نزد شرکت‌ها محفوظ نگه داشته می‌شوند؛ گاه از بیم ایجاد بازتاب منفی در رسانه‌ها، و گاه به دلیل مزیت رقابتی. این شرکت‌ها انگیزه‌ای اندک برای انتشار چنین اطلاعاتی دارند، و تاکنون نیز چنین نکرده‌اند.

«ارائه‌دهندگان مدل‌های بسته، یک جعبه سیاه کامل تحویل ما می‌دهند»

بوریس گامازایچیکوف، رئیس بخش پایداری هوش مصنوعی در شرکت Salesforce، می‌گوید که «ارائه‌دهندگان مدل‌های بسته، یک جعبه سیاه کامل تحویل ما می‌دهند». او تأکید می‌کند که بدون شفاف‌سازی بیشتر از سوی شرکت‌ها، ما نه‌تنها تخمین‌های دقیقی در اختیار نداریم، بلکه عملاً چیز زیادی برای استناد هم نداریم.

در غیاب چنین اطلاعاتی، چه راه‌کاری باقی می‌ماند؟

پاسخ این است: مدل‌های متن‌باز (open-source). این مدل‌ها را می‌توان دانلود و بازتنظیم کرد، و پژوهشگران می‌توانند با استفاده از ابزارهای تخصصی، انرژی مورد نیاز کارت گرافیک H100 را برای انجام یک کار خاص اندازه‌گیری کنند. این مدل‌ها به‌شدت محبوب‌اند؛ شرکت Meta اعلام کرده است که مدل‌های Llama آن، تا آوریل امسال بیش از ۱.۲ میلیارد بار دانلود شده‌اند. بسیاری از شرکت‌ها نیز زمانی که می‌خواهند بر خروجی‌های مدل تسلط بیشتری داشته باشند، به‌جای استفاده از مدل‌های بسته‌ای مانند ChatGPT، از مدل‌های متن‌باز بهره می‌گیرند.

با این حال، حتی اگر انرژی مصرفی GPU قابل اندازه‌گیری باشد، همچنان مصرف انرژی سایر بخش‌ها مانند CPU، فن‌ها و تجهیزات جانبی نادیده گرفته می‌شود. پژوهشی که در سال ۲۰۲۴ توسط مایکروسافت انجام شد، نشان داد که دو برابر کردن انرژی مصرفی GPU، تقریب مناسبی از مصرف کل انرژی فرآیند استنتاج (inference) مدل زبانی بزرگ ارائه می‌دهد.

در حال حاضر، اندازه‌گیری مدل‌های متن‌باز پیشرو و افزودن برآوردی از سایر اجزای مصرف‌کننده انرژی، کامل‌ترین تصویری‌ست که از میزان انرژی مورد نیاز برای پاسخ‌گویی یک مدل به یک پرسش در اختیار داریم.

با این‌حال باید به خاطر داشت که کاربردهای امروزی هوش مصنوعی—از نوشتن فهرست خرید گرفته تا تولید ویدیوهای سوررئالیستی—بسیار ساده‌تر از کاربردهایی‌ست که در آینده‌ای نزدیک در قالب سیستم‌های خودکار و عاملیت‌محور مورد استفاده قرار خواهند گرفت؛ آینده‌ای که شرکت‌های فعال در این حوزه با شتاب به سوی آن حرکت می‌کنند.

در این باره، در آینده بیشتر خواهیم گفت.

 

به کانال تلگرام هم میهن بپیوندید

دیدگاه

ویژه فناوری
پربازدیدترین
آخرین اخبار