بایگانی برچسب برای: سرمایش

۵ کاری که نمی‌توان در مرکز داده به صورت خودکار انجام داد

عنوان اصلی مقاله: Five Things You Can’t Automate In Your Data Center
تاریخ انتشار و نویسنده: By Christopher Tozzi, Jan 17, 2024
Data Center Knowledgeوب‌سایت منتشر کننده: Data Center Knowledge
 لینک اصلی مقاله

اتوماسیون مراکز داده یک موضوع داغ است، اما هنوز برخی از حوزه‌های کلیدی نیازمند دخالت انسان‌ها هستند. در این مقاله خواهید دید که در حال حاضر کدام عملیات در مراکز داده در برابر اتوماسیون مقاومت دارند.

آلامی (Alami)

این راحت است که فرض نماییم اتوماسیون یا خودکارسازی در مراکز داده و فراتر از آن، دیگر هیچ مرزی ندارد. در دنیایی که به نظر می‌رسد هوش مصنوعی طیف بی‌حد و حصری از فرصت‌ها را برای بهبود عملیات مراکز داده و شبکه‌ها در اختیار ما گذاشته است و صنعت فناوری اطلاعات نیز این مفهوم را به طور کلی پذیرفته است که گردش‌های کاری به قدری می‌توانند خودکار شوند که ما به وضعیت نوآپس (NoOps) برسیم، شاید این‌گونه وانمود شود که دیگر چیزی در مراکز داده وجود ندارد که نتوانیم آن را خودکار کنیم.

با این حال، واقعیت بسیار جدی‌تر است. در حالی که فناوری‌های جدید پتانسیل زیادی برای خودکارسازی مراکز داده در بسیاری از زمینه‌ها ایجاد کرده‌اند، جنبه‌های کلیدی عملیات در مراکز داده تا آینده‌ی نزدیک غیرقابل خودکارسازی خواهند بود.

در واقع، ماهیت فیزیکی مراکز داده ایجاب می‌کند که از برخی جهات، خودکارسازی تأسیسات و تجهیزات مرکز داده حتّی بیشتر از سایر انواع زیرساخت‌ها و محیط‌های فناوری اطلاعات چالش‌برانگیز است، از جمله سکوهای ابری عمومی، که در آن همه‌ی آن چیزی که کاربران با آن در تعامل هستند، در نرم‌افزار تعریف می‌شود و بنابراین به راحتی با استفاده از راه‌حل‌های مبتنی بر نرم‌افزار، خودکار می‌شوند.

برای اثبات این موضوع، در اینجا نگاهی به پنج جنبه از مراکز داده یا عملیات مرکز داده می‌اندازیم که هیچ‌کس نباید این انتظار را داشته باشد که به این زودی‌ها به طور کامل خودکار شوند.

  1. استقرار سرورها

استقرار سرور در ابرهای عمومی، به سادگی و با استفاده از برخی از الگوهای «زیرساخت به شکل کد» برای تأمین منابع ابری به صورت خودکار انجام می‌شود.

با این حال، در یک مرکز داده امکان پیاده‌سازی این نوع خودکارسازی وجود ندارد، زیرا سرورهایی که شما مستقر می‌کنید سخت‌افزار فیزیکی هستند. شخصی باید سرورها را نصب کند، آنها را به کابل‌های برق و شبکه متصل نماید، از سرمایش مناسب آنها اطمینان حاصل کند و غیره.

به شکل نظری، ربات‌ها قادر هستند بسیاری از کارهای استقرار سرورها در مراکز داده را به صورت خودکار انجام دهند. با این حال، برای انجام این کار به یک شکل مقرون به صرفه با استفاده از ربات‌ها، باید در مقیاس وسیع عمل کرد. ضمن آنکه شما برای خودکارسازی چنین عملیاتی بدون کمک دست انسان، به استقرار سرورهایی نیاز دارید که به اندازه‌ی کافی با یکدیگر همگون شده و کار با آنها قابل پیش‌بینی باشد. امروزه، بیشتر موارد استقرار سرورها چنین معیاری را برآورده نمی‌کنند.

حتماً دلیلی وجود دارد که ما هنوز تعداد کمی رُبات در مراکز داده می‌بینیم، در حالی که حداقل یک دهه است که در خصوص پتانسیل اتوماسیون رباتیک مراکز داده صحبت در میان است: در بیشتر موارد چنین کاری ممکن نیست. انتظار می‌رود استقرار سرورها حداقل برای یک آینده‌ی قابل پیش‌بینی دستی باقی بماند.

  1. تعمیر و نگهداری سخت‌افزار

به طریقی مشابه، نگهداری سخت‌افزار سرورها پس از استقرار در داخل یک مرکز داده، وظیفه‌ای نیست که در اکثر موارد قابلیت خودکارسازی داشته باشد. تعویض دیسک‌های خراب، جایگزینی منابع تغذیه و کابل‌های فرسوده و به‌روزرسانی کارت‌های شبکه، رویه‌هایی معمول در اکثر مراکز داده هستند و تنها راه انجام آن‌ها استفاده از نیروهای فنی انسانی است.

  1. نصب و نگهداری تهویه

سامانه‌های سرمایش و چرخش هوا که از تجهیزات فناوری اطلاعات در برابر گرمای بیش از حد محافظت می‌کنند، جزء ضروری هر مرکز داده هستند؛ و همانند سرورها، سامانه‌های خنک‌کننده نیز شامل اجزای فیزیکی‌ای هستند که نیاز به نگهداری توسط انسان زنده دارند.

حسگرها و سامانه‌های پایش تهویه می‌توانند از راه دور به خودکارسازی برخی از فرایندهای مرتبط با مدیریت تهویه کمک کنند؛ اما در نهایت، تعمیر و نگهداری تهویه کاری نیست که بتوان به راحتی آن را در مراکز داده خودکار نمود.

  1. امنیت فیزیکی

امنیت فیزیکی مراکز داده حوزه‌ی دیگری است که در آن سامانه‌های پایش قادر هستند به خودکارسازی برخی از وظایف مربوط به آن کمک کنند، در عین حالی که همچنان مداخله‌ی دستی انسانی برای پاسخ به مشکلات عمده ضروری است.

شما می‌توانید از حسگرها برای ردیابی حرکت افراد در مرکز داده استفاده کنید و یا دستگاه‌های احراز هویت زیست‌سنجی یا بیومتریک (Biometric) را برای کنترل خودکار دسترسی فیزیکی به مرکز داده به کار بگیرید. با این حال، اگر یک مزاحم شناسایی شود، یا اگر سامانه‌های کنترل دسترسی خودکار به درستی کار نکردند، آنگاه به تعدادی نیروی امنیتی برای پاسخ به آن رویداد نیاز خواهید داشت.

  1. بازیابی از فاجعه

در برخی موارد، روال‌های بازیابی از فاجعه (Disaster recovery) را می‌توان خودکار کرد. در واقع، خودکارسازی بازیابی از فاجعه برای صرفه‌جویی در زمان هنگام بازیابی داده‌ها یا برنامه‌های کاربردی پس از وقوع خرابی، یک امر حیاتی است.

با این حال، تنها در صورتی می‌توانید بازیابی از فاجعه را به صورت خودکار انجام دهید که دارایی‌هایی که نیازمند بازیابی هستند از نوع نرم‌افزاری باشند، ضمن آنکه باید زیرساخت کافی برای میزبانی از دارایی‌های بازیابی‌شده در دسترس داشته باشید.

اگر بازیابی مستلزم استقرار سخت‌افزار جدید یا جایگزینی اجزای خراب باشد (که چنانچه مرکز داده دچار یک فاجعه‌ی طبیعی شده‌باشد و در آن برخی از سیستم‌ها از کار افتاده باشند، احتمالاً همین‌طور خواهد بود)، باید به نیروی انسانی برای انجام دستی کارها تکیه نمایید.

محدودیت‌های خودکارسازی مراکز داده

دلایل خوب بسیار زیادی وجود دارند تا نسبت به خودکارسازی عملیات در مراکز داده تا آخرین حد ممکن اقدام نماییم. اما بسیاری از جنبه‌های مدیریتی در مراکز داده، مناسب خودکارسازی  نیستند.

حتّی در عصر هوش مصنوعی مولّد و فناوری‌های رباتیک، تصوّر حذ ف کامل انسان‌ها از مراکز داده به این زودی‌ها دشوار به نظر می‌رسد.

منتشر شده در وب‌سایت دیتا سنتر نالج Data Center Knowledge
توسط کریستوفر توزی (Christopher Tozzi)، ۱۷ ژانویه ۲۰۲۴
برگردان توسط حامد معین‌فر
در شرکت مهندسین فناور پندار آریا – پنداریا

پایان قانون مور چه معنایی برای صنعت مرکز داده دارد؟

عنوان اصلی مقاله: What Does the End of Moore’s Law Mean for the Data Center Industry?
تاریخ انتشار و نویسنده: by Christopher Tozzi, May 26, 2023
وب‌سایت منتشر کننده: Data Centre Dynamics Ltd (DCD)
 لینک اصلی مقاله

مرگ قانون مور در صنعت مرکز داده

شاید قانون مور (Moor’s Law) هنوز نمرده باشد، اما مطمئناً در بستر مرگ است. در اینجا به چگونگی تاثیر کاهش سرعت رشد قدرت محاسباتی بر صنعت مرکز داده می‌پردازیم.

چنانچه بی‌خبر بوده‌اید، اکنون بدانید که قانون مور – با این فرض که قدرت محاسباتی در طول زمان به طور پیوسته افزایش می‌یابد – دیگر مرده است، یا در بهترین حالت ممکن به آرامی در حال مرگ است. دیگر همچون دهه‌های گذشته ظرفیت پردازشی تراشه‌های رایانه‌ای با سرعت بالا در حال افزایش نیست.

این تغییر چه معنایی برای مراکز داده خواهد داشت؟ به طور بالقوه، به مقدار زیاد! برای مشاهده‌ی اینکه چگونه کُندشدن رشد توان محاسباتی می‌تواند بر صنعت مرکز داده تأثیرگذار باشد، به خواندن این نوشتار ادامه دهید.

قانون مور چیست و چرا مرده است؟

قانون مور که به پشتوانه‌ی گوردون مور (Gordon Moore) یکی از بنیان‌گذاران اینتل (Intel) که این مفهوم را در سال ۱۹۶۵ مطرح کرد نام‌گذاری شده است، این اصل را بیان می‌کند که تعداد ترانزیستورهایی که مهندسان قادر هستند در داخل تراشه‌های رایانه‌ای قرار دهند، تقریباً هر دو سال یک‌بار دو برابر می شود. با همین نسبت، قدرت محاسباتی تراشه‌های رده‌ی متوسط ​​نیز باید با سرعتی مشابه افزایش یافته و هزینه‌هایی که کسب‌وکارها برای به‌دست‌آوردن توان پردازشی می‌پردازند کاهش یابد.

برای چندین دهه، قضیه‌ی مور در اکثر موارد دقیق بود. ظرفیت محاسباتی تقریباً با سرعتی که او پیش‌بینی کرده‌بود افزایش یافت.

اما این قاعده دیگر جاری نیست. اگرچه ممکن است برای این‌که بگوییم قانون مور قطعاً مرده است خیلی زود باشد، با این وجود دلایلی وجود دارد که باور داشته‌باشیم که اکنون به محدودیت‌های فیزیکی در سی‌پی‌یو‌های (CPUs) بر پایه‌ی سیلیکون برخورد کرده‌ایم. بدون یک جایگزین عملیاتی، مهندسان دیگر قادر نیستند قدرت محاسباتی تراشه‌ها را به همان سرعتی که در سال‌های گذشته انجام می‌دادند، افزایش دهند.

بدون تردید این امکان وجود دارد که افرادی با هوش بالا راه‌هایی را برای دور زدن محدودیت‌های فعلی سیلیکون‌ها پیدا کنند، یا اینکه بالاخره محاسبات کوانتومی عملیاتی شود و زمین بازی پیرامون توان‌های محاسباتی را به طور کامل تغییر دهد. اما در حال حاضر داده‌ها نشان می‌دهند که نرخ افزایش توان پردازشی در حال کاهش است، بدون هیچ نشانه‌ی روشنی مبنی بر اینکه این روند به زودی تغییر خواهد کرد.

قانون مور و مراکز داده

این واقعیت که ظرفیت‌های سی‌پی‌یوها با سرعت پیشین در حال رشد نیستند، می‌تواند چندین پیامد عمیق برای مراکز داده به همراه داشته باشد.

مراکز داده‌ی بیشتر

شاید واضح‌ترین تاثیر آن این باشد که چه بسا ما شاهد ساخت مراکز داده‌ی بیشتری خواهیم بود.

حتّی اگر قانون مور نیز درست باشد، به احتمال زیاد این اتفاق در هر صورت خواهد افتاد. تقاضا برای خدمات دیجیتال مدّت‌ها است که از افزایش توان پردازشی پیشی گرفته‌است، به این معنی که شرکت‌ها مجبور شده‌اند زیربنا و به قولی ردّپای زیرساخت‌های فناوری اطلاعات خود را گسترش دهند، حتّی با این وجود که توان پردازشی تک‌تک سرورها در این زیرساخت‌ها در حال افزایش بوده‌است.

اما در دنیای پَسا قانون مور، ما به مراکز داده‌ی به مراتب بیشتری نیاز خواهیم داشت. اگر سرورها دیگر سال به سال قدرتمندتر نشوند، تنها راه برای پاسخ‌گویی به افزایش تقاضای کاربران، استقرار سرورهای بیشتر خواهد بود که به معنای ساخت مراکز داده‌ی بیشتر است.

چالش‌های پایدارپذیری در مراکز داده

افزایش تعداد کل مراکز داده چالش‌های فعلی مرتبط با قابلیت پایدارپذیری در مراکز داده را تشدید خواهد کرد. نصب سرورهای بیشتر به معنی نرخ‌های بالاتر مصرف انرژی است، به خصوص اگر تعداد ترانزیستورها در هر تراشه ثابت بماند.

گمان می‌رود این بدان معنا باشد که جذابیت و مزیّت آن دسته از ارائه‌دهندگان خدمات مراکز داده که قادر هستند از منابع انرژی پاک بهره ببرند، بیشتر خواهد شد. تاثیر فناوری‌های نسل بعدی (Next-generation) مراکز داده‌، از جمله خنک‌کننده‌های غوطه‌ور (Immersion Cooling) نیز که قادر هستند ردّپای کربنی تأسیسات مراکز داده را کاهش دهند، به همین صورت خواهد بود.

شرکت‌های بیشتری وارد بازار تراشه‌ها خواهند شد

برای چندین دهه، تعداد نسبتاً کمی از سازندگان – یعنی اینتل و اِی‌اِم‌دی (AMD) – بر بازار تراشه‌های رایانه‌ای که در سرورهای مصرفی نصب می‌شدند تسلّط داشتند. این شرکت‌ها قادر بودند توان پردازشی را به‌طور پیوسته افزایش دهند که همین موضوع به سایر کسب‌وکارها انگیزه‌ی کمی برای ورود به بازی ساخت تراشه‌ها می‌داد.

اما این موضوع در سال‌های اخیر تغییر کرده‌است، زیرا شرکت‌هایی مانند اِی‌دبلیواِس (AWS) شروع به ساخت تراشه‌های اختصاصی خود کرده‌اند و چه بسا منسوخ‌شدن قانون مور چنین کسب‌وکارهایی را به سرمایه‌گذاری بیشتر در فناوری‌های طراحی و ساخت سی‌پی‌یوها سوق دهد. دلیل این امر این است که آنها به دنبال راه‌های جدیدتر و بهتری برای افزایش کارایی در تراشه‌ها هستند، به‌ویژه در زمینه‌ی موارد استفاده‌ای خاص که پردازنده‌ها را برای آن کارها مستقر می‌کنند.

به عبارت دیگر در دنیایی که سی‌پی‌یوهای عمومی بر خلاف گذشته سال به سال قدرتمندتر و ارزان‌تر نمی‌شوند، شرکت‌ها انگیزه‌ی بیشتری برای توسعه‌ی سی‌پی‌یوهای خاص خود پیدا می‌کنند که برای موارد استفاده‌ای که برایشان اهمیت دارد، بهینه‌سازی شده‌اند.

بهینه‌سازی بارهای کاری اهمیت پیدا خواهد کرد

کاهش بارهای کاری (Workload) مصرفی سی‌پی‌یوها همواره یک حرکت هوشمندانه برای شرکت‌هایی بوده است که می‌خواهند در هزینه‌های میزبانی خود صرفه‌جویی کنند. اما در دنیای پس از قانون مور، اهمیت بهینه‌سازی بارهای کاری بسیار بیشتر از اکنون خواهد شد.

این بدان معنا است که گمان می‌رود ما شاهد انتقال بارهای کاری بیشتری به کانتینرها باشیم. چه بسا بازار فین‌آپس (FinOps) و بهینه‌سازهای هزینه‌های ابری نیز رونق خواهند گرفت، زیرا کسب‌وکارهای بیشتری به دنبال راهبردهایی برای به‌حداکثررساندن کارایی بارهای کاری خود خواهند بود.

نتیجه‌گیری

صنعت مرکز داده در جهانی رشد کرد که در آن قدرت تراشه‌های رایانه‌ای همواره در حال افزایش و قیمت آنها در حال کاهش بوده‌است. اما آن جهان دیگر از دنیا رفته است! ما در عصر پس از قانون مور یا نزدیک به آن زندگی می کنیم.

چه بسا در نتیجه‌ی این تحوّل شاهد مراکز داده‌ی بیشتر، سی‌پی‌یوهای متنوّع‌تر با اهداف خاص و فشارهای بیشتر بر کسب‌وکارها برای بهینه‌سازی مراکز داده‌ی خود باشیم. ارائه‌دهندگان خدمات مراکز داده و مشتریان آنها باید خود را با وضعیت جدید وفق دهند، یا همچنان به این امید که در نهایت انقلاب کوانتومی به نتیجه خواهد رسید و به طرز مضحکی قدرت محاسباتی را ارزان خواهد کرد منتظر بمانند، اگرچه گمان می‌رود این یک راهبرد برنده نباشد.

منتشر شده در وب‌سایت Data Centre Dynamics Ltd (DCD)
۲۶ مه ۲۰۲۳، توسط کریستوفر توزی (Christopher Tozzi)
برگردان توسط حامد معین‌فر
در شرکت مهندسین فناور پندار آریا – پنداریا

پنداریا - ترجمه - راهنماهای جدید اَشری حرکت به سمت بهره‌وری را به چالش می‌کشد

راهنماهای جدید اَشری حرکت به سمت بهره‌وری را به چالش می‌کشد

عنوان اصلی مقاله: New ASHRAE guidelines challenge efficiency drive
تاریخ انتشار و نویسنده: 26 September 2021 by Daniel Bizo
وب‌سایت منتشر کننده: Data Centre Dynamics Ltd (DCD)
 لینک اصلی مقاله

اَشری (ASHRAE) به عنوان یک نهادِ مرجع در صنعت، توصیه‌های آب‌وهوایی خود برای مراکز داده را به منظور پاسخ به مشکل خورندگی و مشکل سرورهای با چگالی بالا، گسترش می‌دهد.

پیش‌تر در سال ۲۰۲۱، کمیته‌ی فنی ۹,۹ اَشری (ASHRAE TC9.9) راهنماهای حرارتی برای محیط‌های پردازش داده را به‌روزرسانی و پنجمین ویرایش آن را منتشر کرد. این به‌روزرسانی تغییرات مهمی را در محدوده‌ی عملیات حرارتی مراکز داده توصیه می‌کند: وجود آلاینده‌ها را اکنون یک عامل جدید می‌داند و نیز کلاس جدیدی از تجهیزات فناوری اطلاعات را برای محاسبات با چگالی بالا معرفی می‌کند. این توصیه‌های جدید در برخی موارد نه تنها می‌تواند بهره‌برداران را به تغییر در شیوه‌های عملیاتی خود مجبور نماید، بلکه آنها را به تغییر در نقاط تنظیم‌شده‌ی سرمایشی و رطوبتی سوق می‌دهد، تغییری که ممکن است بر بهره‌وری انرژی و توافق‌نامه‌ی سطح خدمات (SLA) قراردادها با ارائه‌دهندگان خدمات مرکز داده تأثیرگذار باشد.

راهنماهای حرارتی اَشری، از زمان انتشار اولیه در سال ۲۰۰۴، در تنظیم استانداردهای سرمایشی مراکز داده در سطح جهانی بسیار موثر بوده‌اند. کمیته‌ی ۹,۹، ورودی‌ها را از بخش وسیعی از صنایع فناوری اطلاعات و مراکز داده جمع‌آوری می‌کند تا رویکردی مبتنی بر شواهد را برای کنترل‌های آب‌وهوایی ترویج دهد، رویکردی که به بهره‌برداران کمک می‌کند تا هم مخاطرات و هم فرصت‌های بهینه‌سازی را بهتر درک کنند. از منظر تاریخی، اکثر تغییرات پیشین در راهنماهای اَشری، بهره‌برداران مراکز داده را به سمت سهل‌گیری بیشتر در نقاط تنظیم‌شده‌ی آب‌وهوایی (مانند دما، رطوبت نسبی، نقطه‌ی شبنم) هدایت می‌کرد، و همچنین سازندگان تجهیزات را نیز ترغیب می‌کرد تا سامانه‌های کارآمدتری با قابلیت صرفه‌جویی در سمت هوا (Air-side economizer) توسعه دهند.

در ویرایش پنجم، اَشری پیش‌بینی‌های احتیاطی مهمی را به راهنمای حرارتی خود اضافه کرده‌است. در حالی که در توصیه‌ی جدید برای رطوبت نسبی (RH)، دامنه‌ی آن را تا ۷۰ درصد افزایش می‌دهد (مقدار قبلی ۶۰ درصد بود)، همین را مشروط می‌کند به این معیار که غلظت گازهای آلاینده در سالن داده، پایین باشد. اگر حضور گازهای خورنده، بالاتر از آستانه‌ی تعیین‌شده باشد، اکنون اَشری به بهره‌برداران توصیه می‌کند رطوبت نسبی را زیر ۵۰ درصد نگه دارند – زیر حد توصیه‌شده‌ی قبلی. برای پایش، بهره‌برداران باید نوارهای فلزی مخصوصی که به «کوپن خوردگی» معروف هستند را در سالن داده قرار دهند و تشکیل لایه‌ی خورده‌شده بر روی آن را اندازه‌گیری نمایند؛ حد مجاز برای نقره، ۲۰۰ آنگستروم (Angstrom) در ماه و برای مس، ۳۰۰ آنگستروم در ماه است.

اَشری راهنمای جدید خود را بر اساس یک مطالعه تجربی بر روی اثرات آلاینده‌های گازی و رطوبت بر روی تجهیزات الکترونیکی که بین سال‌های ۲۰۱۵ و ۲۰۱۸ با همکاری محققان دانشگاه سیراکیوز ایالات متحده (Syracuse University (US)) انجام داد، استوار کرده‌است. این آزمایشات نشان داد که وجود کلر و سولفید هیدروژن، خوردگی مس را در شرایط محیطی با رطوبت بالا تسریع می‌کند. بدون کلر، سولفید هیدروژن یا کاتالیزورهای قوی مشابه، هیچ خوردگی قابل توجهی تا ۷۰ درصد رطوبت نسبی ایجاد نشد، حتی زمانی که سایر آلاینده‌های گازی کمتر متهاجم (مانند ازون، دی‌اکسید نیتروژن و دی‌اکسید گوگرد) در محیط وجود داشتند.

از آنجایی که خوردگی ناشی از کلر و سولفید هیدروژن در ۵۰ درصد رطوبت نصبی، همچنان بالاتر از سطح قابل قبول است، اَشری به بهره‌برداران پیشنهاد می‌کند که استفاده از فیلترهای شیمیایی برای رفع آلودگی‌هایی از این دست را در نظر داشته باشند.

هرچند داده‌هایی که اَشری استفاده می‌کند نسبتاً جدید هستند، با این وجود نتایجی که می‌گیرد منطبق بر استانداردهای پیشین است. شاید این راهنمای جدید اَشری برای کسانی که با الزامات شرایط محیطی سامانه‌های ذخیره‌سازی داده آشنا هستند، جدید نباشد – فروشندگان تجهیزات ذخیره‌سازی داده از سال ۱۹۸۵ تا کنون از مشخصات تعیین‌شده در استاندارد ANSI/ISA-71.04 پیروی می‌کنند (آخرین به‌روزرسانی در سال ۲۰۱۳). مدت‌ها پس از عصر نوارهای مغناطیسی، درایوهای ذخیره‌سازی (چه دیسک‌های سخت و چه حالت جامد) همچنان مهمترین قربانیان خوردگی هستند، زیرا شرایط عملیاتی آنها در دمای پایین به معنای افزایش جذب و جَنب رطوبت است.

با این حال، بسیاری از بهره‌برداران مرکز داده به طور معمول سطح آلاینده‌های گازی را اندازه‌گیری نکرده و بنابراین خوردگی را پایش نمی‌کنند. چنانچه کاتالیزورهای قوی وجود داشته اما شناسایی نشده باشند، این وضعیت ممکن است به نرخ‌های خرابی بالاتر از حد انتظار منجر شود، حتی اگر دما و رطوبت نسبی در محدوده‌ی هدف نگه داشته شده‌باشند. بدتر آنکه کاهش دمای هوا با هدف مقابله با این خرابی‌ها، ممکن است شرایط را وخیم‌تر کرده و حتی احتمال خرابی‌ها را افزایش دهد. اَشری به بهره‌برداران توصیه می‌کند، در صورتی که امکان اندازه‌گیری کوپن‌های خوردگی را ندارند، حد ۵۰ درصد را برای رطوبت نسبی در نظر بگیرند. اَشری به شکل گیج‌کننده‌ای، همچنان پیروی از مشخصاتی را که در به‌روزرسانی قبلی خود (ویرایش چهارم) تعیین کرده‌است، مجاز می‌داند؛ جایی که محدودیت ۶۰ درصد را برای رطوبت نسبی توصیه می‌کند.

بازه‌ی محدودشده برای سامانه‌های IT با چگالی بالا

یکی دیگر از تغییرات عمده در آخرین به‌روزرسانی اَشری، اضافه‌شدن یک کلاس جدید از تجهیزات فناوری اطلاعات (IT)، جدا از کلاس‌های قبلی A1 تا A4 است. کلاس جدید، H1، شامل سامانه‌هایی است که یک تعداد اجزای پرقدرت (پردازنده‌های سرور، شتاب‌دهنده‌ها، تراشه‌های حافظه و کنترل‌گرهای شبکه) را در یک جای کم در کنار هم ادغام می‌کنند. اَشری می‌گوید این سامانه‌های با چگالی بالا به باندهای باریک‌تری از دمای هوا – ۱۸ درجه‌ی سانتی‌گراد تا ۲۲ درجه‌ی سانتی‌گراد را توصیه می‌کند (در مقابل ۱۸ درجه‌ی سانتی‌گراد تا ۲۷ درجه‌ی سانتی‌گراد در توصیه‌ی قبلی) – برای برآورده‌شدن نیازهای سرمایشی خود نیاز دارند. بازه‌ی مجاز نیز سخت‌گیرانه‌تر شده است، با ایجاد حد بالایی ۲۵ درجه‌ی سانتی‌گراد برای کلاس H1، به جای ۳۲ درجه‌ی سانتی‌گراد. (شکل ۱ را ببینید).

راهنمای جدید اشری ۲۰۲۱

شکل 1. محدوده‌ی توصیه‌شده و مجاز ۲۰۲۱ برای کلاس H1 اَشری. «محدوده‌ی توصیهشده» برای شرایط دارای سطح پایین آلاینده‌ها که با روش اندازه‌گیری کوپن تایید شده باشند، کاربری دارد.

طبق گفته‌ی اَشری، این تغییر به این دلیل است که در برخی از سامانه‌های متراکم، اساساً فضای کافی برای گرماگیرها (Heat sinks) و بادزن‌هایی (Fans) که عملکرد بالاتری داشته باشند و قادر باشند دمای قطعات را در بازه‌ی عمومی توصیه‌شده (کلاس‌های A1 تا A4) نگه دارند، وجود ندارد. البته اَشری مشخص نمی‌کند که چه معیاری یک سامانه را به کلاس H1 تبدیل می‌کند، و این تشخیص را به فروشندگان تجهیزات IT واگذار می‌کند تا محصولات خود را با این خصوصیت معرفی کنند.

پیامدهای بالقوه‌ی گسترده‌ای ناشی از این بازه‌های جدید قابل تصور است. بهره‌برداران در طول دهه‌ی گذشته اکثر تاسیسات خود را بر مبنای راهنماهای قبلی اَشری ساخته و تجهیز کرده‌اند. بسیاری از این مراکز داده نسبتاً جدید با بهره‌گیری از روش‌های تبرید کمتر مکانیکی و صرفه‌جویی بیشتر، از بازه‌های دمایی توصیه‌شده منفعت می‌برند. در چندین منطقه – برای مثال، دوبلین، لندن و سیاتل – حتی این امکان وجود دارد که بهره‌برداران به طور کامل خنک‌سازهای مکانیکی را حذف کنند و در عین حال با بهره‌گیری از برج‌های تبخیری و آدیاباتیک به همراه نظام عملیاتی و طراحی‌های پیشرفته‌ی جریان هوا، در انطباق با دستورالعمل‌های اَشری باقی بمانند. نتیجه، یک جهش بزرگ در بهره‌وری انرژی و توانایی پشتیبانی از بار IT بیشتر، از همان پست برق قبلی است.

چنین تاسیسات بهینه‌سازی‌شده‌ای معمولاً انعطاف‌پذیری مناسب برای انطباق با محدوده‌ی جدید را ندارند. همچنین، این واقعیت که اکثر این مراکز داده قادر هستند از رَک‌های ۵ تا ۲۰ کیلوواتی پشتیبانی کنند نیز کمکی به این مشکل نمی‌کند، چراکه H1 یک کلاس تجهیزات جدید است که نیاز به حداکثر دمای پایین‌تری دارد – صرف نظر از چگالی مصرف رَک. برای حفظ بهره‌وری انرژی در طراحی‌های جدیدِ آن دسته مراکز داده که دارای بهینه‌سازی زیاد هستند، ممکن است بخش‌های متراکم IT نیازمند منطقه اختصاصی خود با خنک‌کننده‌ی مستقل باشند. در واقع اَشری می‌گوید که بهره‌برداران باید تجهیزات H1 و سایر تجهیزات دارای محدودیت بیشتر را در مناطقی با کنترل‌ها و تجهیزات خنک‌کننده‌ی اختصاصی، جداسازی کنند.

آپ‌تایم با علاقه به نظاره‌ی ارائه‌دهندگان خدمات هم‌مکانی (Colocation) ادامه خواهد داد تا ببیند که چگونه با این چالش برخورد خواهند کرد، چراکه به طور معمول توافق‌نامه‌های سطح خدمات (SLA) آنها به شدت به راهنماهای حرارتی اَشری وابسته است. با توجه به اینکه توان نیمه‌هادی‌ها با هر تغییر نسل افزایش می‌یابد، احتمالاً چیزی که ممکن است امروز عجیب تلقی شود، به زودی رواج خواهد یافت؛ این امکان وجود دارد که بهره‌برداران تأسیسات، به عنوان یک راه برای خروج از این تعهد، سرمایش مستقیم توسط مایع (DLC) را برای تجهیزات IT با چگالی بالا مستقر نمایند.


منتشر شده در  وب‌سایت Data Centre Dynamics Ltd (DCD)
برگردان توسط حامد معین‌فر
در شرکت مهندسین فناور پندار آریا – پنداریا