بایگانی برچسب برای: پایدارپذیری

خنک‌سازی مستقیم تراشه‌ها: هر آنچه که بهره‌برداران مرکز داده باید بدانند

عنوان اصلی مقاله: Direct-to-Chip Cooling: Everything Data Center Operators Should Know
تاریخ انتشار و نویسنده: By Christopher Tozzi, Nov 27, 2023
Data Center Knowledgeوب‌سایت منتشر کننده: Data Center Knowledge
 لینک اصلی مقاله

خنک‌سازی مستقیم تراشه‌ها در حال تبدیل‌شدن به یک راهبرد سرمایشی جذاب در مراکز داده است.

ناتاپُل شریتُنگکوم (Nattapol Sritongcom) / آلامی (Alami)

آن دسته از سامانه‌های خنک‌کننده که هسته‌ی مرکزی تولید حرارت را هدف قرار می‌دهند، قادر هستند گرما را به شکل مؤثّرتری دفع نمایند. به همین دلیل است که خنک‌سازی مستقیم تراشه‌ها یا خنک‌سازی مستقیم بر تراشه (Direct-to-chip cooling) در حال تبدیل‌شدن به یک راهبرد سرمایشی جذّاب در مراکز داده هستند.

هرچند که خنک‌کننده‌های مستقیم بر تراشه قادرند داغ‌ترین اجزای یک سرور را هدف قرار دهند، با این حال باید توجه داشت که هزینه‌ی بالا و خطر خرابی این نوع سامانه‌ها به این معنی است که این روش نمی‌تواند همواره یک راه‌حل مناسب تلقّی شود.

برای آشنایی با روش «خنک‌سازی صفحه سرد مستقیم بر تراشه (Direct-to-chip cold plate cooling)» و اینکه چگونه کار می‌کند و چرا ممکن است روش مناسبی برای سرمایش سرورهای مرکز داده شما باشد یا نباشد، به خواندن این متن ادامه دهید.

خنک‌سازی صفحه سرد مستقیم بر تراشه چیست؟

خنک‌سازی صفحه سرد مستقیم بر تراشه، عملِ به گردش درآوردن مایع خنک‌کننده از میان یک صفحه (یا همان «صفحه‌ی سرد») است که در تماس مستقیم با منابع اصلی حرارت، از جمله واحدهای پردازنده‌ی مرکزی (CPUs) قرار گرفته‌است. مایع، گرما را از اجزاء دریافت کرده و به طور مؤثر تجهیزات را خنک می‌کند.

از آنجایی که روش خنک‌سازی مستقیم تراشه‌ها به سامانه‌های سرمایشی این اجازه را می‌دهد تا قسمت‌هایی از تجهیزات فناوری اطلاعات (IT) را که بیشترین گرما را تولید می‌کنند هدف قرار دهند، روشی سریع‌تر و کارآمدتر برای پیشگیری از گرم‌شدن بیش از حد دستگاه‌ها است.

خنک‌کننده‌ی مستقیم بر تراشه چگونه کار می‌کند؟

سامانه‌های خنک‌کننده‌ی مستقیم بر تراشه به چندین اجزاء نیاز دارند:

– مایع خنک‌کننده، که معمولاً یک سیّال دی‌الکتریک (Dielectric fluid) می‌باشد و برای کاربرد خنک‌سازی مستقیم بر تراشه شخصی‌سازی شده‌است.

– صفحه‌ی سرد، که مایع بتواند از داخل آن عبور کند.

– پمپ، که مایع را در مدار به حرکت در می‌آورد.

– ماده‌ی رابط حرارتی، که به انتقال گرما از منبع به صفحه‌ی سرد کمک می‌کند.

این اجزاء در کنار هم به روشی نسبتاً ساده کار می‌کنند؛ حرارت حاصل از پردازنده‌ها و یا سایر منابع گرمایی به صفحه‌ی سرد منتقل شده و سپس توسط مایعی که در گردش است از آن ناحیه خارج می‌شود.

مزایای خنک‌سازی مستقیم بر تراشه

مزیت اصلی خنک‌سازی مستقیم تراشه‌ها این است که گرما را سریع‌تر خارج کرده و انرژی کمتری نسبت به سامانه‌های خنک‌کننده‌ی سنّتی که در طراحی‌های مرکز داده دیده می‌شوند، مصرف می‌کند؛ مانند سامانه‌هایی که هوای سرد را از میان رَک‌های سرور به گردش در می‌آورند.

سامانه‌های سنّتی سرمایش هوا، به جای هدف قرار دادن دقیق منابع حرارتی، هوای سرد را به سمت کل یک مجموعه از تجهیزات پرتاب می‌کنند. بخش زیادی از این هوا از روی اجزایی که منابع اصلی تولید گرما نیستند، عبور می‌کند، مانند رابط‌های شبکه (Network interfaces) و بخش‌های بیرونی بُردهای‌اصلی (Mainboards)، و این بدان معنا است که هوای خنک به طور مؤثّری در حال هدر رفتن است.

در مقابل، سامانه‌های خنک‌کننده‌ی مستقیم بر تراشه قادر هستند مشخصاً آن اجزای خاصی که گرما تولید می‌کنند را خنک نمایند. در نتیجه گرمای بیشتری را با انرژی کمتری دفع می‌نمایند که این از منظر پایدارپذیری (Sustainability) (چرا که مصرف انرژی کمتر، خروجی کربن مرکز داده را کاهش می‌دهد) و همچنین از دیدگاه اطمینان‌پذیری (Reliability)، یک برد محسوب می‌شود. هر چه سامانه‌های سرمایشی در دفع گرما بهتر عمل کنند، خطر خرابی‌های فناوری اطلاعات با ریشه‌ی گرمای بیش از حد نیز کاهش می‌یابد.

چالش‌های خنک‌سازی مستقیم بر تراشه

در حالی که خنک‌سازی مستقیم بر تراشه مزایای متعددی به همراه دارد، این فناوری با چالش‌ها و محدودیت‌هایی نیز روبرو است:

هزینه: پیاده‌سازی و نگهداری سامانه‌های هوای سرد تقریباً همیشه هزینه‌ی کمتری نسبت به سامانه‌های مستقیم بر تراشه دارند؛ چرا که نیازمند قطعات گران‌تر و پیچیده‌تر است.

خطر نشت: این احتمال وجود دارد که سیّالات داخل سامانه‌های مستقیم بر تراشه نشت پیدا کنند. نشت معمولاً تهدیدی بزرگ برای تجهیزات فناوری اطلاعات محسوب نمی‌شود، چرا که این سیّالات رسانا نیستند. با این وجود هر گونه نشت، حداقل موجب از کار افتادن سامانه‌ی خنک‌کننده و بروز گرمای بیش از حد می‌شود. آن دسته از بهره‌برداران مرکز داده که نگران خطرات ناشی از نشت سیّال هستند ممکن است خنک‌کننده‌های غوطه‌ور (Immersion cooling) را انتخاب نمایند؛ از آنجا که در چنین سامانه‌هایی دیگر هیچ سیّالی در صفحات کوچک و شکننده در جریان نیست، کمتر مستعد نشتی هستند.

اثرات زیست‌محیطی: سیّالاتی که در مدارهای سامانه‌های مستقیم بر تراشه جریان دارند، اغلب با محیط زیست سازگار نیستند؛ لذا در ارتباط با این سامانه‌ها همواره مخاطراتی از نوع آلودگی وجود دارند.

اجزای خنک‌نشده: از آنجایی که سامانه‌های مستقیم بر تراشه فقط منابع اصلی گرما را خنک می‌کنند، این خطر وجود دارد که سایر بخش‌های سرور، مانند دیسک‌های سخت، بیش از حد داغ شوند. این دلیل دیگری است که چرا برخی از بهره‌برداران مرکز داده تمایل به به‌کارگیری خنک‌کننده‌های غوطه‌ور که تمام قسمت‌های یک سامانه را خنک می‌کنند، دارند.

اگر نگران هزینه‌های پیش‌راه‌اندازی هستید، سامانه‌های سنّتی‌تر خنک‌کننده‌ی هوا راه‌حل بهتری نسبت به خنک‌کننده‌های مستقیم بر تراشه هستند. البته توجه داشته باشید که در دراز مدت، خنک‌سازی مستقیم تراشه‌ها می‌تواند به دلیل مصرف انرژی کمتر، نسبت به خنک‌سازی‌ هوا بیشتر مقرون‌به‌صرفه باشد. البته این نکته نیز وجود دارد که سامانه‌های خنک‌کننده‌ی هوا مستعد مخاطرات ناشی از نشتی نیستند.

در عین حال، خنک‌کننده‌های غوطه‌ور به طور کلی مخاطرات کمتری دارند، هرچند که معمولاً اجرای آنها گران‌تر از خنک‌کننده‌های مستقیم بر تراشه است. البته ممکن است برای زیرساخت‌های مقیاس بزرگ (یعنی آنهایی که شامل صدها یا هزاران سرور هستند)، هزینه‌ی نصب خنک‌کننده‌های غوطه‌ور تقریباً مشابه یا حتی کمتر از خنک‌کننده‌های مستقیم بر تراشه که برای راه‌اندازی‌های مقیاس کوچک‌تر مناسب هستند، باشد.

از کجا می‌توان راه‌حل‌های خنک‌سازی مستقیم بر تراشه یافت

خنک‌سازی مستقیم بر تراشه وارد دوره‌ی اوج خود شده است و یک مؤلفه‌ی اصلی از بازار در حال رشد خنک‌کننده‌های مبتنی بر مایع در مراکز داده که شامل سامانه‌های خنک‌کننده‌ی غوطه‌ور نیز می‌شود، می‌باشد. در حال حاضر تعدادی از سازندگان، از جمله برخی از استارت‌آپ‌هایی که در گذشته آنها را پوشش داده‌ایم، راه‌حل‌ها و محصولاتی در این دسته ارائه می‌دهند.

با این وجود، از آنجا که سامانه‌های خنک‌کننده‌ی صفحه سرد مستقیم بر تراشه باید برای انواع خاصی از تجهیزات که از آنها پشتیبانی می‌کنند طراحی شوند، این امکان وجود ندارد که بیرون بروید و این محصول را از قفسه‌ی یک فروشگاه بخرید. شما نیاز دارید با فروشنده‌ای کار کنید که قادر است یک سامانه را بر اساس مشخصات خاص مرکز داده و سرورهای مورد نظر شما طراحی نماید.

منتشر شده در وب‌سایت دیتا سنتر نالج Data Center Knowledge
توسط کریستوفر توزی (Christopher Tozzi)، ۲۷ نوامبر ۲۰۲۳
برگردان توسط حامد معین‌فر
در شرکت مهندسین فناور پندار آریا – پنداریا

پایان قانون مور چه معنایی برای صنعت مرکز داده دارد؟

عنوان اصلی مقاله: What Does the End of Moore’s Law Mean for the Data Center Industry?
تاریخ انتشار و نویسنده: by Christopher Tozzi, May 26, 2023
وب‌سایت منتشر کننده: Data Centre Dynamics Ltd (DCD)
 لینک اصلی مقاله

مرگ قانون مور در صنعت مرکز داده

شاید قانون مور (Moor’s Law) هنوز نمرده باشد، اما مطمئناً در بستر مرگ است. در اینجا به چگونگی تاثیر کاهش سرعت رشد قدرت محاسباتی بر صنعت مرکز داده می‌پردازیم.

چنانچه بی‌خبر بوده‌اید، اکنون بدانید که قانون مور – با این فرض که قدرت محاسباتی در طول زمان به طور پیوسته افزایش می‌یابد – دیگر مرده است، یا در بهترین حالت ممکن به آرامی در حال مرگ است. دیگر همچون دهه‌های گذشته ظرفیت پردازشی تراشه‌های رایانه‌ای با سرعت بالا در حال افزایش نیست.

این تغییر چه معنایی برای مراکز داده خواهد داشت؟ به طور بالقوه، به مقدار زیاد! برای مشاهده‌ی اینکه چگونه کُندشدن رشد توان محاسباتی می‌تواند بر صنعت مرکز داده تأثیرگذار باشد، به خواندن این نوشتار ادامه دهید.

قانون مور چیست و چرا مرده است؟

قانون مور که به پشتوانه‌ی گوردون مور (Gordon Moore) یکی از بنیان‌گذاران اینتل (Intel) که این مفهوم را در سال ۱۹۶۵ مطرح کرد نام‌گذاری شده است، این اصل را بیان می‌کند که تعداد ترانزیستورهایی که مهندسان قادر هستند در داخل تراشه‌های رایانه‌ای قرار دهند، تقریباً هر دو سال یک‌بار دو برابر می شود. با همین نسبت، قدرت محاسباتی تراشه‌های رده‌ی متوسط ​​نیز باید با سرعتی مشابه افزایش یافته و هزینه‌هایی که کسب‌وکارها برای به‌دست‌آوردن توان پردازشی می‌پردازند کاهش یابد.

برای چندین دهه، قضیه‌ی مور در اکثر موارد دقیق بود. ظرفیت محاسباتی تقریباً با سرعتی که او پیش‌بینی کرده‌بود افزایش یافت.

اما این قاعده دیگر جاری نیست. اگرچه ممکن است برای این‌که بگوییم قانون مور قطعاً مرده است خیلی زود باشد، با این وجود دلایلی وجود دارد که باور داشته‌باشیم که اکنون به محدودیت‌های فیزیکی در سی‌پی‌یو‌های (CPUs) بر پایه‌ی سیلیکون برخورد کرده‌ایم. بدون یک جایگزین عملیاتی، مهندسان دیگر قادر نیستند قدرت محاسباتی تراشه‌ها را به همان سرعتی که در سال‌های گذشته انجام می‌دادند، افزایش دهند.

بدون تردید این امکان وجود دارد که افرادی با هوش بالا راه‌هایی را برای دور زدن محدودیت‌های فعلی سیلیکون‌ها پیدا کنند، یا اینکه بالاخره محاسبات کوانتومی عملیاتی شود و زمین بازی پیرامون توان‌های محاسباتی را به طور کامل تغییر دهد. اما در حال حاضر داده‌ها نشان می‌دهند که نرخ افزایش توان پردازشی در حال کاهش است، بدون هیچ نشانه‌ی روشنی مبنی بر اینکه این روند به زودی تغییر خواهد کرد.

قانون مور و مراکز داده

این واقعیت که ظرفیت‌های سی‌پی‌یوها با سرعت پیشین در حال رشد نیستند، می‌تواند چندین پیامد عمیق برای مراکز داده به همراه داشته باشد.

مراکز داده‌ی بیشتر

شاید واضح‌ترین تاثیر آن این باشد که چه بسا ما شاهد ساخت مراکز داده‌ی بیشتری خواهیم بود.

حتّی اگر قانون مور نیز درست باشد، به احتمال زیاد این اتفاق در هر صورت خواهد افتاد. تقاضا برای خدمات دیجیتال مدّت‌ها است که از افزایش توان پردازشی پیشی گرفته‌است، به این معنی که شرکت‌ها مجبور شده‌اند زیربنا و به قولی ردّپای زیرساخت‌های فناوری اطلاعات خود را گسترش دهند، حتّی با این وجود که توان پردازشی تک‌تک سرورها در این زیرساخت‌ها در حال افزایش بوده‌است.

اما در دنیای پَسا قانون مور، ما به مراکز داده‌ی به مراتب بیشتری نیاز خواهیم داشت. اگر سرورها دیگر سال به سال قدرتمندتر نشوند، تنها راه برای پاسخ‌گویی به افزایش تقاضای کاربران، استقرار سرورهای بیشتر خواهد بود که به معنای ساخت مراکز داده‌ی بیشتر است.

چالش‌های پایدارپذیری در مراکز داده

افزایش تعداد کل مراکز داده چالش‌های فعلی مرتبط با قابلیت پایدارپذیری در مراکز داده را تشدید خواهد کرد. نصب سرورهای بیشتر به معنی نرخ‌های بالاتر مصرف انرژی است، به خصوص اگر تعداد ترانزیستورها در هر تراشه ثابت بماند.

گمان می‌رود این بدان معنا باشد که جذابیت و مزیّت آن دسته از ارائه‌دهندگان خدمات مراکز داده که قادر هستند از منابع انرژی پاک بهره ببرند، بیشتر خواهد شد. تاثیر فناوری‌های نسل بعدی (Next-generation) مراکز داده‌، از جمله خنک‌کننده‌های غوطه‌ور (Immersion Cooling) نیز که قادر هستند ردّپای کربنی تأسیسات مراکز داده را کاهش دهند، به همین صورت خواهد بود.

شرکت‌های بیشتری وارد بازار تراشه‌ها خواهند شد

برای چندین دهه، تعداد نسبتاً کمی از سازندگان – یعنی اینتل و اِی‌اِم‌دی (AMD) – بر بازار تراشه‌های رایانه‌ای که در سرورهای مصرفی نصب می‌شدند تسلّط داشتند. این شرکت‌ها قادر بودند توان پردازشی را به‌طور پیوسته افزایش دهند که همین موضوع به سایر کسب‌وکارها انگیزه‌ی کمی برای ورود به بازی ساخت تراشه‌ها می‌داد.

اما این موضوع در سال‌های اخیر تغییر کرده‌است، زیرا شرکت‌هایی مانند اِی‌دبلیواِس (AWS) شروع به ساخت تراشه‌های اختصاصی خود کرده‌اند و چه بسا منسوخ‌شدن قانون مور چنین کسب‌وکارهایی را به سرمایه‌گذاری بیشتر در فناوری‌های طراحی و ساخت سی‌پی‌یوها سوق دهد. دلیل این امر این است که آنها به دنبال راه‌های جدیدتر و بهتری برای افزایش کارایی در تراشه‌ها هستند، به‌ویژه در زمینه‌ی موارد استفاده‌ای خاص که پردازنده‌ها را برای آن کارها مستقر می‌کنند.

به عبارت دیگر در دنیایی که سی‌پی‌یوهای عمومی بر خلاف گذشته سال به سال قدرتمندتر و ارزان‌تر نمی‌شوند، شرکت‌ها انگیزه‌ی بیشتری برای توسعه‌ی سی‌پی‌یوهای خاص خود پیدا می‌کنند که برای موارد استفاده‌ای که برایشان اهمیت دارد، بهینه‌سازی شده‌اند.

بهینه‌سازی بارهای کاری اهمیت پیدا خواهد کرد

کاهش بارهای کاری (Workload) مصرفی سی‌پی‌یوها همواره یک حرکت هوشمندانه برای شرکت‌هایی بوده است که می‌خواهند در هزینه‌های میزبانی خود صرفه‌جویی کنند. اما در دنیای پس از قانون مور، اهمیت بهینه‌سازی بارهای کاری بسیار بیشتر از اکنون خواهد شد.

این بدان معنا است که گمان می‌رود ما شاهد انتقال بارهای کاری بیشتری به کانتینرها باشیم. چه بسا بازار فین‌آپس (FinOps) و بهینه‌سازهای هزینه‌های ابری نیز رونق خواهند گرفت، زیرا کسب‌وکارهای بیشتری به دنبال راهبردهایی برای به‌حداکثررساندن کارایی بارهای کاری خود خواهند بود.

نتیجه‌گیری

صنعت مرکز داده در جهانی رشد کرد که در آن قدرت تراشه‌های رایانه‌ای همواره در حال افزایش و قیمت آنها در حال کاهش بوده‌است. اما آن جهان دیگر از دنیا رفته است! ما در عصر پس از قانون مور یا نزدیک به آن زندگی می کنیم.

چه بسا در نتیجه‌ی این تحوّل شاهد مراکز داده‌ی بیشتر، سی‌پی‌یوهای متنوّع‌تر با اهداف خاص و فشارهای بیشتر بر کسب‌وکارها برای بهینه‌سازی مراکز داده‌ی خود باشیم. ارائه‌دهندگان خدمات مراکز داده و مشتریان آنها باید خود را با وضعیت جدید وفق دهند، یا همچنان به این امید که در نهایت انقلاب کوانتومی به نتیجه خواهد رسید و به طرز مضحکی قدرت محاسباتی را ارزان خواهد کرد منتظر بمانند، اگرچه گمان می‌رود این یک راهبرد برنده نباشد.

منتشر شده در وب‌سایت Data Centre Dynamics Ltd (DCD)
۲۶ مه ۲۰۲۳، توسط کریستوفر توزی (Christopher Tozzi)
برگردان توسط حامد معین‌فر
در شرکت مهندسین فناور پندار آریا – پنداریا

چَت‌جی‌پی‌تی نیاز دارد برای هر ۲۰ الی ۵۰ سوالی که پرسیده می‌شود، یک بطری کامل آب شیرین «بنوشد»

عنوان اصلی مقاله: ChatGPT needs to ‘drink’ a water bottle’s worth of fresh water for every 20 to 50 questions you ask
تاریخ انتشار و نویسنده: by Will Gendron, Apr 14, 2023
وب‌سایت منتشر کننده: Business Insider
 لینک اصلی مقاله

تخمین زده می‌شود که چَت‌جی‌پی‌تی برای هر ۲۰تا ۵۰ پرسش و پاسخ، یک بطری استاندارد ۵۰۰ گرمی آب مصرف می‌کند. عکس از نارایان ماهارجان (Narayan Maharjan) /نورفوتو (NurPhoto) از طریق گِتی ایمِجز (Getty Images)

 

با هجوم عموم مردم به سمت ابزارهای هوش مصنوعی مولّد از جمله چَت‌جی‌پی‌تی (ChatGPT)، تأثیر زیست‌محیطی این فناوری جدید در شرف آشکارشدن است.

هر چند تا این لحظه داده‌های بسیار کمی در مورد هوش مصنوعی و قابلیت پایدارپذیری (Sustainability) آن وجود دارد، نوک پیکان مطالعه‌ی اخیر مشترک میان محقّقان دانشگاه کالیفرنیا در ریورساید (Riverside) و دانشگاه تگزاس در آرلینگتون (Arlington) به سمت ردّپای آبی مدل‌های هوش مصنوعی از جمله GPT-3 و GPT-4 از اُپن‌اِی‌آی (OpenAI) نشانه رفته‌است.

تخمین زده شده‌است که مایکروسافت در حین آموزش GPT-3 در مراکز داده‌ی خود، ۷۰۰٬۰۰۰ لیتر یا حدود ۱۸۵٬۰۰۰ گالن آب شیرین مصرف کرده‌است. این مقدار آب، طبق گفته‌ی گیزمودو (Gizmodo) برای پر کردن برج خنک‌کننده‌ی یک راکتور هسته‌ای کافی است، و نیز برابر با همان مقداری است که برای تولید ۳۷۰ خودروی بی‌ام‌و (BMW) یا ۳۲۰خودروی تسلا (Tesla) استفاده می‌شود.

با استفاده از این اعداد، مشخص شده‌است که چَت‌جی‌پی‌تی برای هر ۲۰ تا ۵۰ سوالی که پاسخ می‌دهد به ۵۰۰ میلی‌لیتر آب یا یک بطری بزرگ آب آشامیدنی احتیاج دارد.

نویسندگان این مطالعه، با توجه به پایگاه بزرگان کاربران چَت‌جی‌پی‌تی می‌گویند: «هرچند ممکن است یک بطری آب ۵۰۰ میلی‌لیتری خیلی زیاد به نظر نرسد، اما مجموع ترکیب ردّپای آبی تا رسیدن کاربران به نتیجه استنتاجات خود همچنان بسیار زیاد است».

یکی از سخن‌گویان شرکت مایکروسافت در بیانیه‌ای به اینسایدر (Insider) گفت: مایکروسافت «در حال سرمایه‌گذاری تحقیقاتی بر روی اندازه‌گیری مصرف انرژی و تاثیر کربنی هوش مصنوعی است، در حالی که هم‌زمان بر روی راهکارهایی برای کارآمدترسازی سامانه‌های بزرگ، چه در زمان آموزش و چه در زمان کاربرد هوش مصنوعی کار می‌کند.»

او افزود: «ما هم‌چنان به سرمایه‌گذاری در خرید انرژی‌های تجدیدپذیر و سایر تلاش‌ها برای دستیابی به اهداف خود در پایدارپذیری، یعنی منفی‌شدن کربنی (Carbon Negative)، مثبت‌شدن آبی (Water Positive) و صفرشدن ضایعاتی (Zero Waste) تا سال 2030 ادامه می‌دهیم.»

اُپن‌اِی‌آی به درخواست‌های اینسایدر برای اظهار نظر در این خصوص پاسخی نداد.

مدل‌های هوش مصنوعی از جمله GPT-3 و GPT-4 در مراکز داده میزبانی می‌شوند، که انبارهایی هستند فیزیکی که ردیف‌های بزرگی از سرورهای محاسباتی را در خود جای داده‌اند. کار این سرورها شناسایی روابط و الگوها در میان مجموعه‌ی عظیمی از داده‌ها می‌باشد که به نوبه‌ی خود مصرف‌کننده‌ی انرژی هستند؛ چه از نوع برق باشد یا زغال سنگ، انرژی هسته‌ای یا گاز طبیعی.

منابع قابل توجهی از انرژی در فرایند آموزش هوش مصنوعی مصرف شده که بلافاصله تبدیل به گرما می‌شوند. سپس از منابع آب موجود در محل برای کنترل دما در کل زیرساخت‌ها استفاده می‌شود. بر مبنای این مطالعه، برای کنترل رطوبت در سطح مناسب و نیز از آنجایی که آب شور می‌تواند منجر به خوردگی، گرفتگی لوله‌های آب و رشد باکتری‌ها شود، برای این منظور آب شیرین مورد نیاز می‌باشد.

به گفته‌ی محقّقان، در این مسیر رو به جلو، این ارقام می‌توانند «برای GPT-4 که تازه راه‌اندازی شده‌است و اندازه‌ی مدل بسیار بزرگ‌تری دارد، چندین برابر افزایش یابد.»

تیم محقّقان با استفاده از یک روش متعلّق به خود که اثربخشی مصرف آب (WUE) در محل و خارج از محل مرکز داده را محاسبه می‌کند، موفّق شده‌اند علاوه بر مصرف انرژی، تخمین‌هایی را نیز از ردّپای آبی مدل زبان بزرگ گوگل که لامدا (LaMDA) نامد دارد، به‌دست آورند.

با این حال، عدم وجود شفافیت در خصوص ارقام آب مصرفی مرتبط با آموزش هوش مصنوعی، در نهایت تعیین دقیق ردّپای واقعی آبی را دشوار می‌سازد. وقتی از گوگل در خصوص مصرف آب لامدا سوال شد، ما را به گزارش نوامبر ۲۰۲۲ خود ارجاع داد که در آن داده‌های سال ۲۰۲۱ مصرف گسترده‌ی آب در مراکز داده منتشر شده‌است.

محقّقان نوشته‌اند: «در حالی که نمی‌توان بدون وجود داده‌های دقیق از گوگل ردّپای واقعی آبی را شناخت، تخمین ما نشان می‌دهد که کل ردّپای آبی آموزش لامدا به مراتبی در حدود میلیون‌ها لیتر است.»

در حالی که ردّپای کربنی درگیر در هوش مصنوعی مولّد، زنگ‌های خطر را به صدا در آورده‌است، محقّقان می‌گویند که مقاله‌ی آنها به دنبال این است که «ضرورت پرداختن به ردّپای آبی در کنار ردّپای کربنی را برای امکان‌دادن به هوش مصنوعی واقعاً پایدار‌پذیر، برجسته نماید.»

منتشر شده در وب‌سایت Business Insider
توسط ویل گِندرون (Will Gendron) ، ۱۴ آوریل ۲۰۲۳
برگردان توسط حامد معین‌فر
در شرکت مهندسین فناور پندار آریا – پنداریا