| کد مطلب: ۴۳۵۸۴

بولتن هوش مصنوعی

انرژی، آب و میلیون‌ها دلار: قیمت واقعی هوش مصنوعی چیست؟

در بولتن هوش مصنوعی امروز، بخش دیگری از گزارش ویژه نشریه معروف MIT درباره تأمین انرژی سامانه‌های هوش مصنوعی را ارائه می‌کنیم.

انرژی، آب و میلیون‌ها دلار: قیمت واقعی هوش مصنوعی چیست؟

امروز، بخش اول از متن گزارش را می‌بینید.

بخش اول: ساخت مدل

قبل از آنکه از یک مدل هوش مصنوعی بخواهید به شما در برنامه‌ریزی سفر کمک کند یا ویدیویی تولید کند، این مدل در یک مرکز داده به‌وجود می‌آید.

قفسه‌های سرور برای ماه‌ها در حال کار هستند، داده‌های آموزشی را می‌بلعند، محاسبات را انجام می‌دهند و محاسبات پیچیده را انجام می‌دهند. این فرایند زمان‌بر و پرهزینه است—برآورد شده که آموزش مدل GPT-4 اپن‌ای‌آی بیش از ۱۰۰ میلیون دلار هزینه داشت و ۵۰ گیگاوات ساعت انرژی مصرف کرد، که معادل مصرف انرژی شهر سانفرانسیسکو برای سه روز است. تنها پس از این آموزش است که زمانی که مصرف‌کنندگان یا مشتریان مدل‌های هوش مصنوعی را برای دریافت پاسخ یا تولید خروجی استفاده می‌کنند، سازندگان مدل امیدوارند هزینه‌های هنگفت خود را بازپرداخت کنند و در نهایت به سود دست یابند.

عایشه چوکس، پژوهشگر مایکروسافت آزور در این باره می‌گوید: "برای هر شرکتی که بخواهد از یک مدل درآمدزایی کند، این تنها در زمان استنتاج (Inference) اتفاق می‌افتد.

همانطور که گفت‌وگوها با کارشناسان و شرکت‌های هوش مصنوعی روشن کرد، استنتاج، نه آموزش، نمایانگر بخش رو به رشد تقاضاهای انرژی در هوش مصنوعی است و در آینده نزدیک نیز این روند ادامه خواهد داشت. اکنون برآورد می‌شود که ۸۰–۹۰٪ از توان محاسباتی برای هوش مصنوعی صرف استنتاج می‌شود.

تمام این موارد در مراکز داده اتفاق می‌افتد. تقریباً ۳,۰۰۰ چنین ساختمان‌هایی در سراسر ایالات متحده وجود دارد که سرورها و سیستم‌های سرمایشی را در خود جای داده‌اند و توسط ارائه‌دهندگان ابر و غول‌های فناوری مانند آمازون و مایکروسافت اداره می‌شوند، اما توسط استارتاپ‌های هوش مصنوعی نیز استفاده می‌شوند. تعداد روزافزونی از این مراکز—اگرچه دقیقاً مشخص نیست که چه تعداد هستند، زیرا اطلاعات مربوط به چنین تأسیساتی به‌شدت محرمانه نگه‌داشته می‌شود—برای استنتاج هوش مصنوعی طراحی شده‌اند.

در هر یک از این مراکز، مدل‌های هوش مصنوعی روی خوشه‌هایی از سرورها بارگذاری می‌شوند که شامل چیپ‌های ویژه‌ای به نام واحدهای پردازش گرافیکی یا GPU هستند، که مهم‌ترین مدل آن‌ها که توسط انیدیا ساخته شده، مدل H100 است.

این چیپ از اکتبر ۲۰۲۲ وارد بازار شد، یک ماه قبل از آنکه ChatGPT به‌طور عمومی منتشر شود. فروش مدل‌های H100 از آن زمان به شدت افزایش یافته است و این یکی از دلایلی است که باعث می‌شود انیدیا به طور منظم به‌عنوان ارزشمندترین شرکت عمومی در جهان رتبه‌بندی شود.

چیپ‌های دیگر شامل A100 و جدیدترین مدل‌های Blackwell می‌شوند. ویژگی مشترک تمامی این چیپ‌ها، نیاز انرژی قابل توجه برای انجام عملیات پیشرفته آن‌ها بدون گرم شدن بیش از حد است.

یک مدل هوش مصنوعی ممکن است روی دوازده یا چندین GPU نگهداری شود، و یک مرکز داده بزرگ ممکن است بیش از ۱۰,۰۰۰ از این چیپ‌ها را که به هم متصل شده‌اند، در خود جای دهد.

در کنار این چیپ‌ها، CPU‌ها (چیپ‌هایی که اطلاعات را به GPU‌ها منتقل می‌کنند) و فن‌ها برای خنک نگه‌داشتن سیستم نیز قرار دارند.

ن

در هر تبادل تقریباً مقداری انرژی هدر می‌رود، به دلیل استفاده از مواد عایق ناقص و کابل‌های طولانی بین قفسه‌های سرورها، و بسیاری از ساختمان‌ها روزانه میلیون‌ها گالن آب (اغلب آب شیرین و قابل شرب) را در عملیات خنک‌سازی خود مصرف می‌کنند.

بسته به میزان پیش‌بینی‌شده مصرف، این مدل‌های هوش مصنوعی به صدها یا هزاران خوشه در مراکز داده مختلف در سراسر جهان بارگذاری می‌شوند، که هرکدام از آن‌ها ترکیب‌های مختلفی از انرژی را برای تغذیه خود دارند.

سپس این مراکز به‌صورت آنلاین به هم متصل می‌شوند و تنها منتظر هستند تا شما با یک پرسش آن‌ها را فرا بخوانید.

 

به کانال تلگرام هم میهن بپیوندید

دیدگاه

ویژه فناوری
سرمقاله
آخرین اخبار