بایگانی برچسب برای: edge

صنعت مرکز داده در ایران چه جایگاهی در تناسب با روندهای جهانی در سال ۲۰۲۳ خواهد داشت؟

عنوان اصلی مقاله: Where Will the Iranian Data Center Industry Stand Relative to 2023 Global Trends?
تاریخ انتشار و نویسنده: By Hamed Moinfar – Jan. 24, 2023
وب‌سایت منتشر کننده: LinkedIn
 لینک اصلی مقاله

تصویر تولیدشده در دال.ای ۲ (Dall.E 2) توسط اُپن‌اِی‌آی (OpenAI)

 

پس از بازنشر مقاله‌ای از ریچ میلر (Rich Miller) با عنوان «هشت روندی که صنعت مرکز داده را در سال ۲۰۲۳ شکل خواهند داد» توجه ما به جایگاه عجیب صنعت مرکز داده در ایران در تناسب با روندهای پیش‌بینی‌شده در جهان جلب شد. مقاله حاضر دیدگاه و نظرات نگارنده در خصوص جایگاه صنعت مرکز داده در ایران در تناسب با آن روندهای جهانی می‌باشد.

صرفاً برای درک بهتر فضای بحث، در اینجا عناوین هشت روند مشخص‌شده در مقاله‌ی اصلی مجدداً یادآوری می‌شوند:

  • عرضه و تقاضا با محدودیت و تأخیر روبرو می‌شوند
  • ابزارهای هوش مصنوعی مولّد، به عنوان تغییردهنده‌ی بازی ظاهر می‌شوند
  • صنعت مرکز داده با مشکلات خود در حوزه‌ی روابط عمومی روبرو می‌شود
  • حرکت به سوی طراحی بدون آب، هر کجا که امکانش وجود داشته باشد
  • برای اَبَرمقیاس‌های گرسنه، امسال سالی برای هضم است
  • رونق در بازارهای ثانویه از ابر تا لبه ادامه خواهد یافت
  • مراکز داده‌ی بیشتری از «تولید برق در محل» استقبال می‌کنند
  • بازاندیشی در ریزش مشتریان: یک تهدید به یک فرصت تبدیل می‌شود

توصیه می‌کنم مقاله‌ی اصلی را در دیتاسنتر فرانتیر (Data Center Frontier) یا ترجمه‌ی آن را در پنداریا (Pendaria) مطالعه بفرمایید. پس از اندکی تحقیق و جمع‌آوری افکارم، اکنون خوشحال هستم که نظرات خود را در خصوص این موضوع و این که صنعت مرکز داده در ایران چگونه با روندهای فوق انطباق خواهد داشت، به اشتراک بگذارم؛

۱- عرضه و تقاضا با محدودیت و تأخیر روبرو می‌شوند

ایران نیز محدودیت‌ها و تأخیرهای در سمت عرضه و تقاضا را تجربه خواهد کرد، اما احتمالاً نه به دلایلی که در مقاله‌ی اصلی ذکر شده‌اند، بلکه به دلیل سایر عوامل سیاسی و اقتصادی آشکار.

این یک مانع جدید برای صنعت فناوری اطلاعات در ایران نیست، اما با کاهش بیش از پیش سرمایه‌گذاری‌های جدید و افزایش هزینه‌ها در سمت عرضه، فشار بر این صنعت و بر زیرساخت‌های فعلی مطمئناً افزایش خواهد یافت.

۲- ابزارهای هوش مصنوعی مولّد، به عنوان تغییردهنده‌ی بازی ظاهر می‌شوند

ایران در حال حاضر از فضای هوش مصنوعی بسیار دور است و بنابراین مراکز داده‌ی ایرانی بار کاری عمده‌ای که مرتبط با هوش مصنوعی باشد تجربه نخواهند کرد، چرا که هیچ مرکز داده‌ای که میزبان زیرساخت‌هایی از این دست و با توان محاسباتی مورد نیاز باشد، ایجاد نشده‌است. لذا نمی‌توان رشدی در سرمایه‌گذاری که تنها با همین هدف برنامه‌ریزی و محقق شده‌باشد، مشاهده نمود.

اگر بخواهم فقط یک حدس بزنم، احتمالاً استخراج رمزارزها همچنان در سال ۲۰۲۳ برای ایران یک عامل بسیار بزرگتر از روندهای جدیدتر مانند هوش مصنوعی (AI) و یادگیری ماشینی (ML) در تعیین شرایط سرمایه‌گذاری و توسعه‌ی زیرساخت‌ها خواهد بود.

۳- صنعت مرکز داده با مشکلات خود در حوزه‌ی روابط عمومی روبرو می‌شود

روابط عمومی مراکز داده و همه‌ی جنجال‌های رایج پیرامون آن‌ها، در ایران به اندازه‌ی سایر نقاط جهان مشکل‌ساز نخواهند بود. این به این دلیل است که هزینه‌های انرژی در ایران بسیار کمتر از هزینه‌های بین‌المللی بوده و نمی‌تواند در اولویت ذهنی جامعه قرار بگیرد. همچنین، هیچ مبنای محکم قانونی یا مقرراتی وجود ندارد که لزوم به رعایت پارامترهای منجر به پایداری محیطی (Environmental Sustainability) احساس شود.

متأسفانه، عموم مردم نیز درگیر مسائل بسیار اساسی‌تر دیگری در زندگی روزمره خود هستند و توجه به مسائل زیست‌محیطی در اولویت‌های آنها نیست.

۴- حرکت به سوی طراحی بدون آب، هر کجا که امکانش وجود داشته باشد

در موضوع حرکت به سوی طرح‌های غیرمبتنی بر مصرف آب، ایران چندین سال است که با خشکسالی شدید مواجه بوده و به همین دلیل خوشبختانه هم‌اکنون نیز از این نقطه‌ی عطف عبور کرده‌است. همانطور که می‌دانید اکثر تأسیسات خنک‌کننده در مراکز داده در ایران از نوع چیلرهای هواخنک هستند و از سامانه‌های آب سرد مدار بسته که مجهز به فناوری‌های خنک‌سازی آزاد سمت آب (Water-side free cooling) هستند، استفاده می‌کنند.

اگر بخواهیم به ارتقای وضعیت کنونی بیندیشیم، باید تأکید خود را بیشتر بر انتخاب مناسب مکان‌های سردسیرتر در کشور برای احداث مراکز داده و استفاده از فناوری‌های خنک‌سازی آزاد سمت هوا (Air-side free cooling) در آن مکان‌ها قرار دهیم.

۵- برای اَبَرمقیاس‌های گرسنه، امسال سالی برای هضم است

در حال حاضر هیچ مرکز داده‌ی اَبَرمقیاسی در ایران وجود ندارد و حتی مراکز داده با تراکم‌های متوسط نیز ​​متعلق به شرکت‌ها و سازمان‌ها بوده و در اختیار ارائه‌دهندگان فضاهای هم‌مکانی یا خدمات ابری قرار ندارند.

با بیان این مطلب، باید در نظر داشت که بر خلاف تصوّر عمومی و حتی بر خلاف جهت کاهشی سرمایه‌گذاری در زیرساخت‌های مرکز داده در سال‌های اخیر، در حال حاضر اکثر فعالیت‌های روزمره در ایران به خدمات مبتنی بر اینترنت وابسته هستند و جای تعجّب نخواهد داشت اگر در آینده‌ای نزدیک شاهد بروز کاستی‌ها و تحمّل افت کیفیت در ارائه‌ی این خدمات باشیم.

۶- رونق در بازارهای ثانویه از ابر تا لبه ادامه خواهد یافت

با وجود تلاش‌های صورت‌گرفته، صنعت مرکز داده در ایران هنوز به یک سلسله مراتب بالغ و سالم متشکل از زیرساخت‌های ملی، منطقه‌ای، محلّی و در لبه متصل نشده‌است. این در کنار آنچه قبلاً مورد بحث قرار گرفت، هیچ چشم‌انداز روشنی از وجود ظرفیت قابل اتکاء در بازارهای ثانویه نمایش نمی‌دهد.

۷- مراکز داده‌ی بیشتری از «تولید برق در محل» استقبال می‌کنند

جالب اینجاست که اگرچه به ارزان‌بودن انرژی در ایران اشاره کردیم، اما به دلیل سرمایه‌گذاری ناکافی در شبکه‌ی سراسری برق در سال‌های اخیر، گزینه‌ی تولید برق مورد نیاز در محل برای بسیاری از صنایع از جمله مراکز داده رایج شده‌است. همچنین، شرکت توزیع برق متعلّق به دولت نیز خود بر روی تولید برق در محل تاکید دارد و حتی در بسیاری از شرایط پیشنهاد بازخرید ظرفیت اضافی را می‌دهد.

اما نباید فراموش کرد که این رویکرد ممکن است در درون خود مشکلات دیگری را به همراه داشته باشد، مانند کمبود بنزین و گاز طبیعی در فصول سرد که ممکن است منجر به خاموشی‌های برنامه‌ریزی‌نشده شود.

۸- بازاندیشی در ریزش مشتریان: یک تهدید به یک فرصت تبدیل می‌شود

در ایران همواره و حتی بیشتر از آن چیزی که هر کسی فکرش را بکند، همیشه از ظرفیت‌های فضای خالی در مراکز داده استقبال می‌شود. همانطور که قبلاً نیز گفته شد، ایران در حال تجربه‌ی یک بازار با تقاضای بالا در صنعت مرکز داده است که اتفاقاً سرمایه‌گذاری کمی در آن انجام شده‌است.

کاربران بیش از هر زمان دیگری به فناوری اطلاعات متّکی شده‌اند و حتی در شرایط سخت سیاسی فعلی نیز تقاضا همچنان در حال افزایش است. به همین نسبت، بهره‌برداران مراکز داده و ارائه‌دهندگان خدمات مبتنی بر اینترنت نیز تحت فشار قرار دارند. همه‌ی ما حداقل یک تماس را در تجربه‌ی خود داشته‌ایم که یک مدیر فناوری اطلاعات در پشت خط از شما سوال می‌پرسد که آیا ظرفیت خالی در هر مرکز داده‌ای برای اجاره توسط شرکت آنها سراغ دارید.

این تقاضا می‌تواند از دَه‌ها تا صدها رَک متغیر باشد، اما همواره پاسخ یکسان است: متأسفانه خیر!

منتشر شده در  وب‌سایت LinkedIn
برگردان توسط حامد معین‌فر
در شرکت مهندسین فناور پندار آریا – پنداریا

هشت روندی که صنعت مرکز داده را در سال ۲۰۲۳ شکل خواهند داد «قسمت دوم»

عنوان اصلی مقاله: The Eight Trends That Will Shape the Data Center Industry in 2023
تاریخ انتشار و نویسنده: By Rich Miller – Jan. 5, 2023
وب‌سایت منتشر کننده: Data Center Frontier
 لینک اصلی مقاله

چه روندهایی در پیشِ روی صنعت مرکز داده در سال ۲۰۲۳ می‌باشند؟ سال جدید، سالی است که جریان‌های متضاد، فعالیت‌های تجاری در این بخش را در برابر یکدیگر هم‌زمان محدود و تقویت می‌کنند. ما در اینجا روندهایی که معتقد هستیم بیشترین اهمیت را خواهند داشت، شرح می‌دهیم.

«قسمت دوم»
مطالعه‌ی قسمت اول این مقاله

 

۴. حرکت به سوی طراحی بدون آب، هر کجا که امکانش وجود داشته باشد

یکی از تنش‌های اصلی در توسعه‌ی مراکز داده، مقدار زیاد آبی است که برای خنک‌کردن تعدادی از آنها استفاده می‌شود. گرمای شدید و خشک‌سالی‌های اخیر سطح معیار توقّعات را از سکّوهای محاسبات ابری با رشد بالا و توسعه‌دهندگان مراکز داده بالا برده‌اند.

آدام سِلیپسکی (Adam Selipsky) مدیرعامل خدمات وب آمازون (AWS) می‌گوید: «پیش‌بینی می‌شود که طی چند سال آینده نیمی از جمعیت جهان در مناطق با تنش آبی زندگی کنند، بنابراین برای اطمینان از دسترسی تمام مردم به آب سالم، همه‌ی ما باید راه‌های جدیدی را برای کمک به حفظ و استفاده‌ی مجدد از این منبع ارزشمند ابداع کنیم.»

در بسیاری از مناطق، مراکز داده در حال حاضر از چیلرهای هواخنک استفاده می‌کنند که آب را در یک مدار بسته به گردش در می‌آورند و مصرف آب را به شدت کاهش می‌دهند. اما در مناطقی دیگر، مراکز داده همچنان بر سامانه‌های خنک‌کننده‌ی تبخیری متّکی هستند که هرچند بسیار کارآمدند، اما به آب زیادی برای کارکرد خود نیاز دارند.

اکنون سکّوهای ابری بزرگ قول داده‌اند که تراز آبی در مراکز داده‌ی خود را مثبت کنند و شروع به افشای اطلاعات بیشتر در مورد مصرف آب خود کرده‌اند. هرچند این یک پیشرفت است، اما تنها پاسخی است به فشار افکار عمومی و شکایت‌های حقوقی که به دنبال دریافت اطلاعات مربوط به تأثیرات آبی مراکز داده در جوامع هستند. گوگل پس از سال‌ها اصرار بر این ادعا که اطلاعات میزان مصرف آب مراکزش در برخی بازارها یک راز تجاری است، اخیراً داده‌های مربوط به مصرف آب تأسیسات خود را به اشتراک گذاشته است که نشان می‌دهد در ناوگان مراکز داده آمازون در سال ۲۰۲۱، به میزان ۴٫۳ میلیارد گالن (۱۶٫۳ میلیون متر مکعّب) آب استفاده شده‌است که به طور متوسط برای هر مرکز داده ​​روزانه ۴۵۰٬۰۰۰ گالن (۱٬۷۰۰متر مکعّب) آب محاسبه می‌شود.

این عدد بسیار بزرگی است و گوگل به دنبال آن بود تا این ارقام را در متن فعالیت‌های تجاری ناشی از ارائه‌ی خدمات خود قرار دهد، با تاکید بر این نکته که این ارقام معادل حجم آبی است که برای ۲۹ زمین گلف مصرف می‌شود (در مقایسه: بیش از ۱۱٬۰۰۰ زمین گلف در ایالات متحده وجود دارند).

داده‌های منتشرشده توسط شرکت گوگل همچنین نشان داد که چگونه میزان مصرف آب می‌توان در تناسب با آب‌‌وهوای هر منطقه و فناوری خنک‌کننده مورد استفاده، متفاوت باشد. پردیس ابری گوگل در آیووا (Iowa) در سال ۲۰۲۱ بیش از ۱ میلیارد گالن (۳٫۸ میلیون متر مکعّب) آب مصرف کرد، در حالی که یک پردیس کوچک‌تر در آتلانتا (Atlanta) تنها تأثیر خالصی معادل ۱۳ میلیون گالن (۴۹٬۵۰۰ متر مکعّب) آب در همان سال داشت.

اورس هولزل (Urs Holzle)، معاون ارشد زیرساخت‌های فنّی در گوگل، در یک پست وبلاگ می‌گوید: «بهترین رویکرد در هر مکان به عوامل محلّی آنجا بستگی دارد و هیچ راه‌حل واحدی برای تمام شرایط وجود ندارد. در بسیاری از مکان‌ها، آب کارآمدترین ابزار خنک‌کننده است. خنک‌کننده‌ی آب چنانچه به طور مسؤولانه استفاده شود، می‌تواند نقش مهمی در کاهش انتشار گازهای گلخانه‌ای و کاهش تغییرات آب‌وهوایی ایفا کند. مراکز داده‌ی مجهز به سامانه‌های خنک‌کننده‌ی آبی حدود ۱۰٪ انرژی کمتری مصرف می‌کنند و در نتیجه تقریبا ۱۰٪ سطح کمتری از کربن نسبت به بسیاری از مراکز داده‌ی از نوع هوا خنک منتشر می‌کنند. در سال 2021، خنک‌کننده‌ی آب به ما کمک کرد تا ردپای کربنی مرتبط با مصرف انرژی در مراکز داده‌ی متعلق به خود را تقریباً معادل ۳۰۰٬۰۰۰ تُن دی‌اکسید کربن (CO2) کاهش دهیم.»

بله، شاید قضاوت در خصوص مصرف آب یک موضوع پیچیده باشد، اما از آنجایی که مناطق بیشتری با خشک‌سالی و کمبود آب مواجه هستند (مانند حوضه‌ی آب‌ریز رودخانه‌ی کلرادو (Colorado Basin))، مراکز داده با فشار فزاینده‌ای برای کاهش تأثیر آبی خود مواجه خواهند شد. این بخش از صنعت توانایی اثبات‌شده‌ای برای حفظ منابع از طریق به‌کارگیری نوآوری و ایجاد نظم در عملیات، از خود نشان داده‌است، چنانچه در جریان موفقیت خیره‌کننده‌ی صنعت مراکز داده در افزایش بهره‌وری انرژی مشاهده شد، که با وجود یک دهه رشد تصاعدی در توان محاسباتی مراکز داده بین سال‌های ۲۰۱۰ تا ۲۰۲۰، مصرف برق این صنعت تنها ۴ درصد افزایش یافت و ۶۰ میلیارد دلار صرفه‌جویی به همراه داشت.

انقلاب بهره‌وری انرژی پاسخی به فشار عمومی و ترس از مقررات بود. انتظار می‌رود موج مشابهی از نوآوری در پرداختن به صرفه‌جویی در مصرف آب در سال‌های آینده، از سال ۲۰۲۳ آغاز شود.

۵. برای اَبَرمقیاس‌های گرسنه، امسال سالی برای هضم است

هر کسی که فعالیت مراکز داده در سال گذشته را دنبال کرده‌باشد، نباید از اینکه بهره‌برداران اَبَرمقیاس ممکن است فضای کمتری را در سال ۲۰۲۳ اجاره کنند تعجب نماید. این شرکت‌ها در نیمه‌ی اول سال ۲۰۲۲ مقادیر تاریخی ظرفیت مرکز داده در اختیار گرفتند تا در بحبوحه‌ی گسترش نگرانی‌ها مبنی بر کُندشدن تحویل ظرفیت‌های جدید در آینده با توجه به اختلالات زنجیره‌ی تأمین، توسعه‌ی زیرساخت‌های خود را سرعت بخشند.

بسیاری از این معاملات بزرگ نشان‌دهنده‌ی پیش‌اجاره‌هایی بودند که در آنها مشتریان بزرگ اقدام به خرید تمام یک ساختمان در حالی که همچنان در مرحله‌ی طراحی و ساخت بود، می‌کردند. از آنجایی که شرکت‌های اَبَرمقیاس برای قطعی‌کردن ظرفیت موجود در اختیار خود با یکدیگر در حال مبارزه بودند، آنها به وضوح در حال پیش‌خرید نیاز آتی خود نیز بودند. اکنون این امر اجتناب‌ناپذیر است که در برخی مواقع بازار اجاره کُند شود تا این شرکت‌ها فرصت هضم ظرفیتی را که قبلاً خریداری کرده‌اند، پیدا نمایند.

خطوط کلی نتایج حاصل از این رخداد را می‌توان در تصمیم شرکت مِتا (Meta) برای توقف ساخت تعدادی از پروژه‌های مرکز داده‌ی خود مشاهده کرد تا بتواند تأسیسات جدید خود را با یک تغییر معلّق در طراحی که بر هوش مصنوعی (AI) متمرکز است، «بازبینی» نماید. گوگل نیز برنامه‌های توسعه‌ای خود را تعدیل نموده و طبق گزارش‌ها پروژه‌ی مرکز داده‌ی خود در بازار مینیاپولیس (Minneapolis) را به حال خود رها کرده‌است.

همچنین تغییراتی در توئیتر (Tweeter) که تا همین اخیراً در سال ۲۰۲۱ یک مصرف‌کننده‌ی بزرگ برای بازار عمده‌فروشی فضاهای مرکز داده بود، رخ داده‌است. مدیر عامل جدید آن ایلان ماسک (Elon Musk) فعلاً در وضعیت کاهش هزینه‌ها قرار دارد و بنا به گزارش‌ها اخیراً یکی از مراکز داده‌ی این شرکت را که در بازار ساکرامنتو (Sacramento) قرار دارد، تعطیل کرده‌است.

 لیگت (Liggett) می‌گوید: «ما شاهد عقب‌نشینی جزئی در سرعت تقاضای این کاربران بزرگ هستیم. این می‌تواند منجر به بروز برخی نوسانات در بازار شود و می‌تواند به این معنی باشد که ممکن است تا چند ماه رشد قابل توجهی در بازار مشاهده نشود. با توجه به تقاضای قابل توجهی که در سال ۲۰۲۲ شاهد بودیم، معتقدیم این کاهش سرعت موقتی خواهد بود.»

بازار اَبَرمقیاس‌ها قبلاً نیز در سال ۲۰۱۹ پس از ثبت یک رکورد در بازار اجاره در سال ۲۰۱۸، یک چرخه‌ی هضم را طی کرد. اما این تنها یک وقفه‌ی موقتی بود، چنانچه مشاهده شد که همین صنعت در سال‌های ۲۰۲۰ و ۲۰۲۱ به وضعیت پررونق اجاره بازگشت.

۶. رونق در بازارهای ثانویه از ابر تا لبه ادامه خواهد یافت

امسال ما تاکید خود را بر رشد مراکز داده در بازارهای ثانویه دو برابر می‌کنیم، روندی که با ظهور کمبود برق در بازارهای اولیه شتاب بیشتری گرفته‌است. این شامل ظهور بازارهای فرعی بیشتری در اطراف شاه‌راه‌های مراکز داده‌ی موجود، و همچنین پروژه‌های عظیم در مناطق جدیدی که برق و زمین کافی برای پشتیبانی از نسل جدید پردیس‌های عظیم (MegaCampuses) در اختیار دارند، می‌شود.

طبق معمول، ویرجینیای شمالی بارزترین نمونه از این روند خواهد بود. شهرهای گِینسویل (Gainesville) و کاتارپین (Catharpin) در شهرستان پرنس ویلیام کانون تمرکز بیش از 20 میلیون فوت مربع (۱٫۹ میلیون متر مربع) توسعه‌ی مرکز داده توسط کامپس دیتاسنترز (Compass Data Centers)، کیوتی‌اس دیتاسنترز (QTS Data Centers)، ان‌تی‌تی گلوبال دیتاسنترز آمریکا (NTT Global Data Centers Amerika) و کورِسکیل دیتاسنترز (Corscale Data Centers) هستند.

در سراسر منطقه‌ی پوتاماک (Potomac)، اَلایند دیتاسنترز (Aligned Data Centers) قصد دارد حداقل 3.3 میلیون فوت مربع (۳۰۷ هزار متر مربع) فضای مرکز داده را در آدامزتاون ایالت مریلند (Adamstown MD) در شهرستان فرِدِریک (Frederick County) بسازد، و این تنها اولین مشتری اعلام‌شده‌ی اَبَرپردیس کوانتوم لوپ‌هول (Quantum Loophole) می‌باشد.

روند مشابهی در حومه‌ی شیکاگو مشاهده می شود، جایی که مزارع بزرگ سرور در دی‌کالب (DeKalb)، ماونت پراسپکت (Mount Prospect)، نورت‌لیک (Northlake) و ایتاسکا (Itasca) در حال ساخت هستند.

اِرنست پوپِسکو (Ernest Popescu)، رئیس بخش جهانی انتخاب محل‌های ساخت در آیرون ماونتن دیتاسنترز (Iron Mountain Data Centers) می‌نویسد: «فرصت‌ها فراوان است، اما اکنون بیشتر دنبال رشد در بازارهای سطح دو هستیم. در ایالات متحده، ما شاهد توسعه‌ی بیشتر مراکز داده در شهرهایی مانند دِنور (Denver)، پیتسبورگ (Pittsburgh)، دیترویت (Detroit)، سالت لیک سیتی (Salt Lake City) و تامپا (Tampa) هستیم که همگی بازارهایی هستند که با عنوان ’شهرهای فوتبال‌دوست‘ شناخته می‌شوند.»

ریا ویلیامز (Rhea Williams)، انتخاب‌کننده‌ی اصلی محل‌های ساخت برای اوراکل کلاود (Oracle Cloud)، در میزگرد اخیر دیتاسنتر فرانتیر (DCF) گفت: «محدودیت‌های حاضر در مناطق اصلی به افزایش تقاضا در بازارهای ’سطح دوم‘ ادامه خواهد داد. استفاده‌ی بیشتر از تجهیزات شخصی و خانگی که باعث افزایش مصرف و تولید داده‌های بیشتر می‌شود، نیاز به افزایش سطح پوشش را از نقطه‌نظر تأخیر (Latency) افزایش خواهد داد. چه آن را سطح دوم بنامید یا لبه، همه چیز اکنون به رشد اشاره دارد.»

۷. مراکز داده‌ی بیشتری از «تولید برق در محل» استقبال می‌کنند

نیرو حوزه‌ی دیگری است که در آن شاهد پژواک پیش‌بینی‌های سال گذشته‌ی خود هستیم، جایی که دیتاسنتر فرانتیر (DCF) پیش‌بینی کرد که داده‌ها و انرژی ارتباطات عمیق‌تری را با یکدیگر ایجاد خواهند کرد. صحّت این پیش‌بینی با قطعیت ثابت شده‌است، اما در پیش‌بینی امسال ما زاویه‌ی دید خود را محدودتر می‌کنیم. در سال ۲۰۲۳، شاهد پروژه‌های مرکز داده‌ی بیشتری خواهیم بود که در خود تولید انرژی در محل را نیز شامل می‌شوند تا امکان گسترش در بازارهای دارای محدودیت شبکه‌ی تأمین برق را فراهم شود.

نمونه‌ی اولیه‌ی این روند در ایرلند مشاهده می‌شود، جایی که مایکروسافت قصد دارد یک نیروگاه گازی عظیم ۱۷۰ مگاواتی به‌علاوه‌ی ۲۱ نیروگاه دیزلی کوچک‌تر احداث نماید. این تصمیم پس از آن اتخاذ شد که بهره‌بردار شبکه‌ی برق ایرلندی ایرگرید (EirGrid) به طور مؤثر سقف انشعابات برق را برای ساخت مراکز داده جدید در بازار دوبلین محدود کرد.

راهبردهای مشابهی می‌تواند در شهرستان لودون (Loudoun) در ویرجینیای شمالی ظاهر شود، جایی که سقف انشعابات جدید برق از شرکت دومینیون انرژی (Dominion Energy) به دلیل محدودیت‌ها در شبکه‌ی محلی انتقال برق با ظرفیت بالا، به شدت تا سال ۲۰۲۶ محدود خواهد شد.

در مقیاس کوچک‌تر، امسال شاهد ورود راه‌حل‌های اِدج سنترز (Edge Centers) به ​​بازار ایالات متحده خواهیم بود که تخصّص آن در راه‌اندازی مراکز داده‌ی لایه‌ی لبه با پشتیبانی از انرژی خورشیدی در بیرون از شبکه‌ی سراسری برق می‌باشد. این شرکت شبکه‌ای از این تأسیسات را در آسیا ساخته‌است که شامل سایت‌هایی در استرالیا، مالزی، ویتنام، تایلند، اندونزی و فیلیپین می‌شود.

به گفته‌ی کارشناسان وِرتیو (Vertiv)، ما احتمالاً شاهد تمرکز بیشتر بر روی استفاده از سلول‌های سوختی هیدروژنی برای تأمین انرژی پشتیبان و حتی اوّلیه نیز خواهیم بود.

وِرتیو در پیش‌بینی‌های خود برای سال ۲۰۲۳ می‌گوید: «این سلول‌های سوختی در ابتدا مانند یک مولّد عمل می‌کنند و تنها بار لحظه‌ای را پشتیبانی می‌کنند و در نهایت نوید عملکرد پایدار یا حتی مداوم را می‌دهند.»

هر دو شرکت مایکروسافت و اکوئینکس پروژه‌هایی برای آزمایش تولید انرژی مبتنی بر هیدروژن در شبکه‌ی عملیات برق خود دارند. می‌توان انتظار داشت که در سال ۲۰۲۳ شاهد تمرکز شتابان بر روی این فناوری باشیم.

۸. بازاندیشی در ریزش مشتریان: یک تهدید به یک فرصت تبدیل می‌شود

ارائه‌دهندگان فضاهای مرکز داده همواره مقوله‌ی ریزش مشتریان را به عنوان یک دشمن تلقی کرده‌اند. اما با ورود صنعت به دوره‌ای از محدودیت‌ها در ظرفیت قابل ارائه، نگرش‌ها نسبت به ریزش، که در آن مستاجران فضای مرکز داده را پس از پایان دوره‌ی اجاره‌ی خود خالی می‌کنند، در حال تغییر است.

هنگامی که یک مشتری مرکز داده را ترک می‌کند، ارائه‌دهندگان باید فضای خالی‌شده را که دیگر درآمدی ایجاد نمی‌کند پُر نمایند. در محیطی که ظرفیت جدید کمیاب است، فضای موجود ارزشمندتر می‌شود.

چارلز مایرز (Charles Meyers)، مدیرعامل اکوئینکس، در یک کنفرانس خبری اخیر درباره‌ی درآمدهای شرکت گفت: «ما حتّی می‌بینیم مشتریانی که قبل از این قصد داشتند از بهره‌برداری از فضاهای در اختیار خود انصراف دهند، اکنون برنامه‌ریزی خود را برعکس نموده‌اند. حصول اطمینان از در اختیار داشتن فضای پیشین، تحت همان شرایط قبلی یا نزدیک به آن شرایط، برای آنها یک تصمیم راهبردی است. ما به همین دلایل شاهد مطلوبیت بیشتر در مقوله‌ی ریزش مشتریان هستیم.»

تغییر در شرایط عرضه، پویایی طولانی‌مدت در قیمت‌گذاری فضاهای مرکز داده را نیز تغییر داده‌است. شرکت دیجیتال ریالیتیز پاور (Digital Realty’s Power) که می‌گوید نرخ فضاهای هم‌مکان ۱۰٪ تا ۱۵٪ افزایش یافته‌است و خاطرنشان می‌کند که ارائه‌دهندگانی که فضاهای خالی در اختیار دارند به ویژه در اَشبورن (Ashburn) در موقعیت چانه‌زنی مناسبی قرار گرفته‌اند، عنوان می‌کند: «ما همچنان شاهد بهبود قدرت قیمت‌گذاری در سرتاسر سکّوهای خود هستیم.»

این شرکت می‌گوید: «اما از هم‌اکنون تا (۲۰۲۶)، عرضه‌ی کمتری در بزرگترین بازار پرتقاضا وجود خواهد داشت. این بدان معناست که آونگ قدرت قیمت‌گذاری در حال برگشت به سمت و به نفع ما است.»

ریچ میلر (Rich Miller)

من در مورد مکان‌هایی می‌نویسم که اینترنت در آن محل‌ها زندگی می‌کند و داستان مراکز داده و افرادی که آنها را می‌سازند بیان می‌کنم. من دیتاسنتر نالِج (Data Center Knowledge) را که سایت خبری پیش‌رو در صنعت مرکز داده‌است، تأسیس کرده‌ام. من اکنون در حال پایش آینده‌ی محاسبات ابری در دیتاسنتر فرانتیر (Data Center Frontier) هستم.

منتشر شده در  وب‌سایت Data Center Frontier
برگردان توسط حامد معین‌فر
در شرکت مهندسین فناور پندار آریا – پنداریا

هشت روندی که صنعت مرکز داده را در سال ۲۰۲۳ شکل خواهند داد «قسمت اول»

عنوان اصلی مقاله: The Eight Trends That Will Shape the Data Center Industry in 2023
تاریخ انتشار و نویسنده: By Rich Miller – Jan. 5, 2023
وب‌سایت منتشر کننده: Data Center Frontier
 لینک اصلی مقاله

چه روندهایی در پیشِ روی صنعت مرکز داده در سال ۲۰۲۳ می‌باشند؟ سال جدید، سالی است که جریان‌های متضاد، فعالیت‌های تجاری در این بخش را در برابر یکدیگر هم‌زمان محدود و تقویت می‌کنند. ما در اینجا روندهایی که معتقد هستیم بیشترین اهمیت را خواهند داشت، شرح می‌دهیم.

«قسمت اول»
مطالعه‌ی قسمت دوم این مقاله

 

ردیفی از سخت‌افزارهای هوش مصنوعی با تراکم بالا در مرکز داده‌ی کولاوُر (Colovore) در سانتا کلارا (Santa Clara)، کالیفرنیا (California).

چه روندهایی در پیشِ روی صنعت مرکز داده در سال ۲۰۲۳می‌باشد؟ ما در دیتاسنتر فرانتیر (Data Center Frontier) چشمان خود را به افق دوخته‌ایم و همواره روندهای مهم را دنبال می‌کنیم. ما هر سال هشت موضوعی را که معتقدیم کسب‌وکار مراکز داده را در آن سال شکل می‌دهند شناسایی می‌کنیم.

بیش از هر سال دیگری که در خاطر داریم، احتمالاً در سال ۲۰۲۳شاهد بیشترین جریان‌های متضاد مقابل یکدیگر هستیم که می‌توانند فعالیت‌های تجاری در این بخش را محدود یا تقویت نمایند. این موضوع، زمینه را برای تحرکات پر جنب‌وجوش در صنعتی که با هزینه‌های بالاتر، اقتصاد در حال رکود و چشم‌اندازی پر چالش برای ارائه‌ی ظرفیت‌های جدید مرکز داده دست‌وپنجه نرم می‌کند، فراهم می‌سازد.

ما در آینده در رابطه با بسیاری از این روندها با جزئیات بیشتری خواهیم نوشت، اما این فهرست یک نما در سطح بالا از موضوعاتی ارائه می‌دهد که معتقدیم در سال ۲۰۲۳بیشترین تاثیر را خواهند داشت.

۱. عرضه و تقاضا با محدودیت و تأخیر روبرو می‌شوند

پس از چندین سال رشد پرقدرت، اکنون بخش زیرساخت دیجیتال برای ساخت مراکز داده‌ی جدید با همان سرعت اینترنت با محیطی چالش‌برانگیز مواجه است. در نتیجه، یافتن فضاهای موجود مرکز داده دشوارتر شده و ممکن است به خصوص در نیمه‌ی دوم سال 2023 هزینه‌ی بیشتری به همراه داشته باشد.

در سمت عرضه، بازارهای کلیدی با محدودیت‌های تأمین نیروی برق مواجه هستند و ممکن است روند زمانی پروژه‌های جدید به دلیل مشکلات زنجیره‌ی تأمین و مقاومت جامعه در برابر آنها، کُند شود. در سمت تقاضا، احتمالاً فروشندگان تجهیزات سازمانی فناوری اطلاعات با محدودیت‌های بودجه مواجه خواهند شد، در حالی که بخش اَبَرمقیاس نیز باید حجم عظیمی از ظرفیت اجاره‌شده در سال ۲۰۲۲را جذب نماید.

دیوید لیگِت (David Liggett) از دیتاسنتر هاوک (datacenterHawk) طی یک بررسی اجمالی اخیر از بازار می‌گوید: «ما در یک زمان واقعاً منحصر به فرد قرار گرفته‌ایم. راه‌اندازی و تحویل مراکز داده به طور فزاینده‌ای در سال‌های اخیر دشوار شده‌است. این موضوع به دلیل تعدادی از عوامل، از جمله نیاز به تأمین مقادیر بیشتر نیروی برق، رقابت توسعه‌دهندگان صنعتی با یکدیگر، و زنجیره‌ی تأمین غیر قابل اعتماد ایجاد شده‌است. این منجر به طولانی‌شدن زمان‌بندی توسعه و احتمالاً نرخ اجاره‌ی بالاتر می‌شود، امّا همچنان فرصتی را برای شرکت‌هایی ایجاد می‌کند که قادر هستند با سرعت بالاتر محصولات خود را در بازار عرضه نمایند.»

مدیران عامل دو ارائه‌دهنده‌ی بزرگ فضاهای مرکز داده وجود این چالش‌ها را تصدیق می‌کنند.

اندرو پاور (Andrew Power)، مدیرعامل دیجیتال ریالتی (Digital Realty) که می‌گوید شرکت او «بینایی ما را تیزتر خواهد کرد و سرمایه‌گذاری‌های جدید را برای آنهایی که دارای بالاترین شایستگی راهبردی هستند، در اولویت قرار خواهد داد» این‌گونه بیان می‌کند: «ما انتظار داریم جابه‌جایی و نوسانات بازارهای سرمایه، همراه با افزایش هزینه‌ها و کاهش دسترس‌پذیری نیروی برق در بازارهای متعدّد، توانایی ایجاد ظرفیت‌های جدید مرکز داده را با وجود پایایی تقاضای برای زیرساخت‌های مرکز داده، محدود نماید.»

چارلز مایرز (Charles Meyers)، مدیر عامل اکوئینکس (Equinix) می‌گوید: «ما همچنان به پایش دقیق شرایط کلان در بازار ادامه می‌دهیم و طرح‌های اجرایی خود را بر همین اساس تطبیق می‌دهیم، با این وجود پایه‌های کسب‌وکار ما همچنان بسیار قوی باقی هستند. وقتی من در بیرون از شرکت با مشتریان و با تیم‌های فروش صحبت می‌کنم، نگرانی شماره‌ی یک آنها این است که ظرفیت مورد نیازشان که در اختیار ما است تمام شود. آنچه من می‌شنوم این است که ’ما به ظرفیت بیشتری نیاز داریم، ما باید به سرمایه‌گذاری در کسب‌وکار خود ادامه دهیم.‘»

بخش مرکز داده از چرخه‌ی عمومی کسب‌وکار مصون نیست، اما تحوّلات گسترده‌ای پیش‌ران آن هستند که از ادامه‌ی سرمایه‌گذاری در مراکز داده در زمان جابجایی اقتصادی حمایت می‌کنند، همانطور که در رشد انفجاری در طول همه‌گیری کووید ۱۹ (COVID-19) نیز مشاهده شد. از آنجایی که خدمات ابری و هوش مصنوعی به بازسازی چشم‌انداز کسب‌وکار ادامه می‌دهند، فروشگاه‌های تجهیزات سازمانی فناوری اطلاعات نیز باید با تنش میان محدودیت‌های بودجه‌ای و مخاطرات رقابتی ناشی از عقب‌ماندن در عصر تحوّل دیجیتال مقابله کنند. عناوین خبری که اخیراً مشاهده می‌شوند این دغدغه‌ها را تسکین می‌دهند.

تام کرازیت (Tom Krazit) در موستلی کلودی (Mostly Cloudy) خاطرنشان می‌کند: « به نظر می‌رسد که فروپاشی حماسی هواپیمایی ساوت‌وِست (Southwest) در آخر هفته‌ی تعطیلات کریسمس، که فعالیت‌های آن را برای بیش از یک هفته مختل کرد، نتیجه‌ی سال‌ها به‌تعویق‌انداختن ارتقای سامانه‌های نرم‌افزاری داخل سازمانی باشد. این زنگ خطری برای تمام آن بخش‌های فناوری اطلاعات و مالی است که اکنون از تعطیلات بازگشته‌اند و می‌دانند آنها نیز این به‌روزرسانی‌ها را به تعویق انداخته‌اند.»

۲. ابزارهای هوش مصنوعی مولّد، به عنوان تغییردهنده‌ی بازی ظاهر می‌شوند

در طول سال ۲۰۲۲ پیشرفت‌های جذّابی در هوش مصنوعی حاصل شد، به ویژه برای برنامه‌های کاربردی هوش مصنوعی مولّد (Generative AI) که با توانایی‌های خود در ایجاد تصاویر، پاسخ‌دادن به سؤالات دقیق، نوشتن مقالات با موضوعات پیچیده و سرعت‌بخشیدن به برنامه‌نویسی نرم‌افزارها، تخیّلات عموم را تسخیر کردند.

ما شاهد ظهور برنامه‌های هوش مصنوعی خیره‌کننده‌ای مانند چَت‌جی‌پی‌تی (ChatGPT)، دال-ای (Dall-E)، لنزا اِی‌آی (Lensa AI) و گیت‌هاب کوپایلوت (GitHub Copilot) بودیم که به رایانه‌هایی که از الگوریتم‌های یادگیری ماشینی استفاده می‌کردند اجازه می‌دادند تولید محتوا کنند؛ از جمله متن، تصاویر، صدا، ویدئو و کُد. راه‌اندازی چَت‌جی‌پی‌تی در ۳۰نوامبر باعث ایجاد هیجانی شد که تنها در ۵ روز توانست یک میلیون کاربر را به خود جذب کند.

اَشو گارگ (Ashu Garg)، شریک عمومی فاوندیشن کاپیتال (Foundation Capital)، که تأثیر چَت‌جی‌پی‌تی را با راه‌اندازی مرورگر نِت‌اسکیپ (Netscape) مقایسه می‌کند‌، می‌گوید: «هوش مصنوعی پس از دهه‌ها سفر در امتداد یک منحنی نمایی، اکنون به لحظه‌ی ’دنیای جدید‘ خود رسیده‌است. هوش مصنوعی زودتر و ریشه‌ای‌تر از آنچه ما انتظار داریم تمام حوزه‌های نرم‌افزارهای سازمانی را از نو بازسازی خواهد کرد.»

همانطور که اغلب اشاره کرده‌ایم، شرکت‌های بیشتری به دنبال استفاده از هوش مصنوعی برای هوشمندترسازی دستگاه‌ها و خدمات خود هستند، و این روند احتمالاً با هیجان پیرامون چَت‌جی‌پی‌تی تسریع خواهد شد.

مَنوویر داس (Manuvir Das)، معاون ارشد محاسبات سازمانی در اِنویدیا (NVIDIA) می‌گوید: «هیجان‌های مربوط به هوش مصنوعی مولّد، در سال ۲۰۲۳ به واقعیت تبدیل می‌شوند. این موضوع به این دلیل است که پایه‌های هوش مصنوعی مولّد واقعی، اکنون با استفاده از نرم‌افزارهایی که قادر هستند مدل‌های زبانی بزرگ (Large Language Models (LLM)) و سامانه‌های توصیه‌کننده را به برنامه‌های کاربردی تولیدی‌ای تبدیل کنند که فراتر از تصاویر بوده و به طور هوشمندانه به سؤالات پاسخ می‌دهند، محتوا تولید می‌کنند و حتی جرقّه‌ی اکتشافات جدیدی را می‌زنند، تولید شده‌اند و استقرار یافته‌اند. این دوره‌ی خلّاقانه‌ی جدید باعث پیشرفت‌های عظیم در ارائه‌ی خدمات شخصی‌سازی‌شده به مشتریان می‌شود، مدل‌های کسب‌وکار جدید را هدایت می‌کند و راه را برای پیشرفت و عبور از موانع هموار می‌سازد.»

علاقه‌ی فزاینده به هوش مصنوعی مولّد منجر به انجام سرمایه‌گذاری‌های تازه می‌شود، هم‌زمان با آنکه کاربران نیز پتانسیل و مشکلات این فناوری را برطرف می‌کنند.

راب پاول (Rob Powell) از تله‌کام رَمبلینگز (Telecom Ramblings) می‌گوید: «درک عمومی از فناوری‌های نسل بعدی برای توجیه سرمایه‌گذاری در زیرساخت‌ها اهمیت زیادی دارد. شیفتگی به چَت‌جی‌پی‌تی تنها رو به افزایش است و بنابراین هوش مصنوعی را از یک محرّک در آینده به یک هدایت‌گر در حال حاضر ارتقاء می‌دهد، حتی در زمانی که صنعت در حال حرکت به سمت استفاده از سایر اَشکال هوش مصنوعی و یادگیری ماشینی (ML) به روش‌هایی با جلب توجه کمتر است.»

برای بخش مرکز داده، این به معنای تقاضای بیشتر برای سکّوهای تخصصی محاسبات سریع (یا محاسبات با عملکرد بالا) (HPC) است. در اینجا ارائه‌دهندگان بزرگ ابری بازیگران کلیدی خواهند بود، اما شرکت‌های پیش‌رو نیز ممکن است بخواهند از این ابزارها برای استخراج ارزش تجاری مجموعه داده‌های اختصاصی خود استفاده نمایند که ممکن است لزوماً قابل پیاده‌سازی در ابر نباشند.

این روند فرصت‌هایی را برای مراکز داده‌ی خدمات هم‌مکانی با تراکم بالا (مانند کسب‌وکار نوپای مراکز داده‌ی دی‌سی‌ایکس (DCX) در فونیکس (Phoenix)، مجموعه‌ی کولاوُر (Colovore) در سانتا کلارا (Santa Clara) و مجموعه‌ی اسکِیل‌ماتریکس (ScaleMatrix) در سن دیِگو (San Diego)) و پیشنهادهای بهینه‌سازی‌شده‌‌ای پیرامون پردازنده‌های جدید (مانند همکاری سیرااسکیل (CirraScale) با سِره‌براس (Cerebras)) و چارچوب‌های نرم‌افزاری هوش مصنوعی مولّد (مانند اِنی‌اسکیل (AnyScale)) ایجاد می‌کند. ارائه‌دهندگان بزرگ‌تر خدمات هم‌مکانی و عمده‌فروشان فضاهای مراکز داده ممکن است برنامه‌های ایجاد مناطق با تراکم بالا در تأسیسات خود را تسریع بخشند.

۳. صنعت مرکز داده با مشکلات خود در حوزه‌ی روابط عمومی روبرو می‌شود

یک روایت فزاینده‌ای در حال حاضر ایجاد شده‌است که می‌گوید مراکز داده همسایگان بدی هستند و منابع حیاتی جامعه از جمله آب و برق را می‌بلعند. همانطور که در پیش‌بینی‌های خود برای سال گذشته عنوان کردیم، مقاومت جامعه در برابر توسعه‌ی مراکز داده در برخی از مهم‌ترین بازارهای مرکز داده یک چالش رو به رشد است. در شهرستان پرنس ویلیام (Prince William) در ویرجینیا (Virginia)، تصویب توسعه‌ی یک مرکز داده‌ی عظیم به مهم‌ترین موضوع سیاسی تبدیل شد و باعث شد که سرپرستان طرح یک جلسه‌ی ۱۴ ساعته ترتیب دهند تا ۳۰۰ نفر از ساکنان اجازه پیدا کنند نظرات خود را به اشتراک بگذارند.

با انباشته‌شدن عناوین خبری منفی، مقاومت در برابر ساخت مراکز داده به بازارهای در حال رشدی که سابقه قبلی توسعه‌ی مراکز داده در آن بازارها وجود نداشت نیز سرایت پیدا کرد. در این موارد، ساکنان تنها بر مبنای گزارش رسانه‌ها در خصوص مناقشات در دیگر مناطق، به دنبال مقاومت و رد هر گونه پروژه‌ی زیرساخت ابری جدید هستند.

این می‌تواند به یک مشکل تجاری مهم برای سازندگان مراکز داده تبدیل شود، زیرا بازارهای اصلی با محدودیت‌هایی در دسترسی به زمین و شبکه‌ی برق مواجه هستند.

به عنوان مثال: هنگامی که مقامات برنامه‌ریزی در وارنتون (Warrenton)، ویرجینیا در ماه نوامبر برای بررسی یک درخواست ساخت مرکز داده‌ی خدمات وب آمازون (AWS) با یکدیگر ملاقات داشتند، ۵۸ نفر از ساکنان در مخالفت با این پروژه صحبت کردند، در حالی که تعدادی دیگر ساعت‌ها زیر باران منتظر فرصتی برای شنیده‌شدن نظرات خود بودند. تعدادی از سخنرانان به نگرانی‌هایی در خصوص آلودگی صوتی، به ویژه به پوشش رسانه‌ای ایجادشده پیرامون مراکز داده‌ی پر سر و صدا در چَندلر (Chandler)، آریزونا (Arizona) اشاره کردند. این کمیسیون در نهایت به توقف بررسی این درخواست رای داد تا اطلاعات بیشتری از AWS برای رسیدگی به نگرانی‌های ساکنان دریافت نماید.

وارنتون، شهری با حدود ۱۰٬۰۰۰ نفر ساکن در شهرستان فاوکوییر (Fauquier)، یک بازار بالقوه برای توسعه‌ی خوشه‌ای مراکز داده‌ی عظیم در ویرجینیای شمالی است. این نوع سایت‌ها احتمالاً نقش مهمی در آینده‌ی بازار مراکز داده ایفا خواهند کرد.

صنعت مرکز داده همواره ترجیح داده‌است تمرکز خود را بر روی پشت صحنه‌ی کار و توان خود در جلب حمایت مقامات محلی قرار دهد و در عین حال در هر جنجال عمومی پیرامون تأسیسات مرکز داده سکوت نسبی اختیار نماید. باید دید که آیا این راهبرد در آیند نیز قابل قبول خواهد بود، چرا که توسعه‌ی مراکز داده تبدیل به یک «سیب‌زمینی داغ» در سیاست شده‌است. احتمالاً انتخابات پیشِ رو در شهرستان پرنس ویلیام به ما نشان ‌می‌دهد که آیا سیاست‌مداران محلّی بهای حمایت از توسعه‌ی مراکز داده را خواهند پرداخت یا خیر.

یک چیز مسلّم است: صنعت مرکز داده نمی‌خواهد عناوین خبری و سوابق منفی‌اش در شهرستان پرنس ویلیام هدایت‌گر مسیر صنعت در آینده باشند. زیرساخت‌های دیجیتال برای اقتصاد جهانی به یک ضرورت تبدیل شده‌اند و مراکز داده قادر هستند عوامل نیرومندی برای ایجاد تغییرات مثبت در تغییرات آب‌وهوایی باشند. اما چنانچه قرار باشد کسی آنها را در همسایگی خود نپذیرد، این نتیجه در دسترس نخواهد بود.

 

«پایان قسمت اول»
مطالعه‌ی قسمت دوم این مقاله

منتشر شده در  وب‌سایت Data Center Frontier
برگردان توسط حامد معین‌فر
در شرکت مهندسین فناور پندار آریا – پنداریا

توسعه‌ی لَبه تا داخل تأسیساتِ در محل، می‌تواند جابجایی‌ به فضاهای اَبری را شتاب بخشد

عنوان اصلی مقاله: Cloud Shift May Accelerate as Edge Extends Into On-Premises Facilities
تاریخ انتشار و نویسنده: BY RICH MILLER – February 21, 2022
وب‌سایت منتشر کننده: Data Center Frontier
 لینک اصلی مقاله

مشتریان سازمانی در حال سنجش بهترین گزینه‌ها برای بهره‌گیری از مدل‌های رایانش ابری هستند. (عکس از: ریچ میلر)

نرم‌افزارها در حال بلعیدن جهان بوده و شرایط را برای بروز یک روند قدرتمند جدید آماده کرده‌اند – اَبرها در حال جویدن مراکز داده سازمانی هستند.

تغییر و جابجایی بارهای کاری فناوری اطلاعات سازمان‌ها از تأسیسات فناوری اطلاعات در محل به مراکز داده‌ی شخص ثالث، یک روند طولانی‌مدت بوده که اکنون شتاب بیشتری گرفته‌است. این مهاجرت در طول همه‌گیری کووید ۱۹ آهنگ بیشتری به خود گرفت، که باعث شد بسیاری از شرکت‌ها برای پشتیبانی از نیروی کار توزیع‌شده‌ی خود به خدمات ابری روی آورند.

بر اساس پیش‌بینی‌های جدید گارتنر، که اظهارات رَده‌های اجرایی شرکت‌های بزرگ بهره‌بردار مراکز داده نیز آن پیش‌بینی‌ها را تقویت می‌کند، هم‌زمان با ظهور گزینه‌های جدیدی که اکنون سخت‌افزارها و نرم‌افزارهای ابری را به شبکه‌های مخابراتی و مراکز داده‌ی مشتریان، از جمله به تأسیسات در محل، اضافه می‌کنند، این روند بیش از پیش تسریع خواهد شد.

مایکل واریلو (Michael Warrilow)، معاون پژوهشی گارتنر، می‌گوید: «در دو سال گذشته به دلیل کووید ۱۹، با واکنش سازمان‌ها به محرّک‌های کسب‌وکار و محرّک‌های اجتماعی، تغییر جهت به سمت فضاهای ابری شتاب گرفته‌است. ارائه‌دهندگان فناوری و خدماتی که نتوانند خود را با گام‌ جابجایی‌های ابری سازگار کنند، با مخاطرات فزاینده‌ای از جمله منسوخ‌شدن یا در بهترین حالت، سقوط به بازارهای با رشد کم مواجه خواهند شد.»

این تغییر جهت سریع به ابرها پیامدهای مهمی برای بخش مراکز داده به همراه دارد:

— تقاضای فزاینده برای سکّوهای ابری منجر به توسعه‌ی کسب‌وکار برای توسعه‌دهندگان عمده‌فروش فضاهای مرکز داده، از جمله سالن‌های داده‌ی کلیددَردست، فضاهای برق‌دارشده و پروژه‌های ساخت مبتنی بر نیاز، می‌شود. تحلیل‌گران اوراق بهادار که در حال رصد این بخش هستند، انتظار دارند که بهره‌برداران اَبَرمقیاس هم‌زمان با افزایش سرعت گسترش شبکه‌های خود، بیشتر به اجاره‌های عمده اتّکاء نمایند.

— هم‌زمان با گسترش و نفوذ فناوری‌های ابری به داخل سازمان‌ها، «اَبری‌سازی» صنعتِ هم‌مکانی این اجازه را به ارائه‌دهندگان خدمات مرکز داده می‌دهد تا یک نقشِ رو به رشد در معماری‌های ابریِ ترکیبیِ پذیرفته‌شده توسط مشتریان سازمانی، ایفا کنند.

— انتقال به فضاهای ابری، همچنین یک خبر خوب برای افزایش «قابلیت پایدارپذیری» می‌باشد، چراکه میزان بیشتری از بارهای کاری فناوری اطلاعات از مراکز داده‌ی در محل به تأسیسات بسیار بهینه‌سازی‌شده توسط سکّوهای ابری منتقل خواهند شد، که هم در مصرف انرژی کارآمدتر هستند و هم با احتمال بالاتری به وسیله‌ی انرژی‌های تجدیدپذیر تغذیه می‌شوند.

آوردن اَبر به محیط‌های قدیمی غیر ابری

گارتنر می‌گوید که فضاهای ابریِ توزیع‌شده، بیش از هر زمان دیگر مرز بین فناوری‌های سنتی اطلاعات و پیشنهادهای جدید ابری را محو می‌کنند. سرویس‌های وب آمازون (AWS)، گوگل و مایکروسافت همگی خدمات ابریِ جدیدی در لایه‌ی لبه را معرفی کرده‌اند که دارای قفسه‌ها و سرورهای از پیش نصب‌شده بوده و نقش ارائه‌دهنده‌ی خدمات به عنوان نقاط توسعه‌ای انتهایی برای سکّوهای ابری را ایفا می‌کنند.

گارتنر در یک مطلب مطبوعاتی می‌گوید: «پذیرش معماری‌های ابریِ توزیع‌شده توسط سازمان‌ها این پتانسیل را دارد که انتقال‌های ابری را حتی بیشتر تسریع نماید، چرا که موجب ورود خدمات ابری عمومی به دامنه‌های جدیدی می‌شود که عمدتاً تا کنون غیراَبری بوده‌اند و این موضوع، بازار  هدف را گسترش می‌دهد. سازمان‌ها نیز به دلیل توانایی اَبرها در برآورده‌سازی الزامات مکانی خاص مانند حکم‌رانی داده‌ها، تأخیر کم و پهنای باند شبکه، اقدام به ارزیابی و انتخاب آنها می‌کنند.»

در آخرین جلسات بررسی درآمدها، مدیران عامل بزرگ‌ترین ارائه‌دهندگان خدمات مرکز داده تأیید کردند که بلوغِ رو به رشد خدمات ابری، در حال تغییر معماری‌های فناوری اطلاعات سازمانی هستند.

چارلز مِیرز (Charles Meyers)، مدیر عامل اکوئینکس (Equinix) می‌گوید: «رایانش ابری انتظارات مشتریان را برای همیشه نسبت به سرعت و سادگی خدمات تغییر داده‌است. حالا مشتریان می‌خواهند زیرساخت‌های خود را در جایی که لازم دارند و در زمانی که لازم دارند مستقر نمایند و بارهای کاری مبتنی بر اَبر خود را با زیرساخت‌های خصوصی خود یکپارچه ساخته و امکان چابکی و جابجایی عملکرد بین این دو را برای خود ایجاد نمایند.»

مشتریان سازمانی، فقط متقاضی خدمات ابری بیشتر نیستند، بلکه آن خدمات را در مکان‌های بیشتری می‌خواهند. ارائه‌دهندگان ابری و هم‌مکانی بازیگران کلیدی در رفع چالش‌های حکم‌رانی داده‌ها در جاهایی که لازم است داده‌ها در داخل یک کشور حفظ شوند، بوده‌اند.

بیل استاین (Bill Stein)، مدیر اجرایی دیجیتال ریالتی (Digital Realty)، گفت: «ما شاهد یک روند رو به رشد هستیم که شرکت‌های چندملّیتی در همه‌ی بخش‌ها، در حال استقرار و اتّصال زیرساخت‌های خصوصی داده‌ی خود با ابعاد بزرگ بر روی سکوی پلتفرم‌دیجیتال (PlatformDIGITAL) در چندین منطقه و شهر در سراسر جهان هستند.»

پیشی‌گرفتن اَبر از فناوری‌های سنتی اطلاعات در بخش‌های کلیدی

بر اساس گزارش گارتنر، در سال ۲۰۲۲، بیش از ۱٬۳ تریلیون دلار هزینه‌کرد سازمان‌ها در فناوری اطلاعات تحت تاثیر جابجایی‌ها به سمت خدمات ابری قرار گرفته‌اند، که این رقم تا سال ۲۰۲۵ به تقریباً ۱٬۸ تریلیون دلار افزایش خواهد یافت.

گارتنر پیش‌بینی می‌کند که در بازارهای کلیدی، هزینه‌کرد فناوری اطلاعات سازمان‌ها در بخش رایانش ابری عمومی در سال ۲۰۲۵، از هزینه‌کرد فناوری اطلاعات آنها در بخش زیرساخت‌های سنتی پیشی خواهد گرفت. از جمله برای نرم‌افزارهای کاربردی، نرم‌افزارهای زیرساختی، خدمات مرتبط با فرایندهای کسب‌وکار و بازارهای زیرساخت‌های سامانه‌ای. تا سال ۲۰۲۵، حدود ۵۱٪ از هزینه‌کردهای فناوری اطلاعات در این چهار دسته از راه‌حل‌های سنتی به اَبرهای عمومی کوچ خواهند کرد، در مقایسه با سال  ۲۰۲۲ که این رقم حدود ۴۱٪ می‌باشد.

گارتنر خاطرنشان می‌کند: «هم‌زمان با حفظ اولویت تحوّلات بلندمدت دیجیتال و طرح‌های جدیدسازی در سال ۲۰۲۲، تداوم تقاضا برای قابلیت‌های یکپارچه‌سازی، فرایندهای کاری چابک و معماری‌های ترکیب‌پذیر، پیش‌ران انتقال مداوم به اَبرها خواهد بود. مدیران محصولات فناوری باید از جابجایی‌های ابری به عنوان یک عامل ایجاد فرصت در بازار بهره بگیرند.»

جهت‌گیری مرکز داده

تجهیزات لایه‌ی لبه‌ی مستقر در محل سازمان‌ها می‌توانند به برخی از شرکت‌ها اجازه دهند تا با «ارتباط مستقیم» با سکّوهای ابری، اتکای خود را به مسیرهای ارتباطی ورودی در تأسیسات هم‌مکانی کاهش دهند. اما اَبرها به عنوان یک نمونه از پارادوکس جوُنز (Jevons’ Paradox) نیز مطرح می‌شوند که در آن هزینه‌های کمتر منجر به استفاده‌ی بیشتر و موارد استفاده‌ی جدیدی خواهند شد که در تنظیمات قبلی غیرعملی می‌بودند.

به همین دلیل است که مهاجرت به ابر هیچ‌گاه یک «بازی مجموع صفر» نبوده، بلکه موجب تقویت کسب‌وکار هم برای ارائه‌دهندگان خدمات و هم برای سکّوهای ابری بوده‌است. همان‌طور که در گزارش اخیر DCF در خصوص فناوری‌های اطلاعات ترکیبی اشاره شده‌است، «امروزه شرکت‌ها در حال ترکیب و تطبیق مراکز داده‌ی سازمانی، ابری و هم‌مکان هستند تا نیازهای خود را برای تولید پایدار، نمونه‌سازی و توسعه‌ی سریع، امنیت، و نیازهای رو به رشد برای اَبَرمقیاس‌پذیری و محاسبات سفارشی‌سازی‌شده با کارایی بالا در جهت برآورده‌سازی الزامات روزافزون بارهای کاری خود، متعادل سازند.»

ارائه‌دهندگان خدمات هم‌مکانی، راهبرد «اَبری‌سازی» را برای تعریف مراکز داده‌ی خود در نقش پیوندگاه کلیدی در این معماری ترکیبی و چند محلی جدید فناوری اطلاعات اتخاذ کرده‌اند. بزرگترین ارائه‌دهندگان خدمات هم‌مکانی، از جمله اکوئینکس (Equinix)، دیجیتال ریالتی (Digital Realty)، سیکسترا (Cyxtera) و راه‌حل‌های مرکز داده ایوُک (Evoque Data Center Solutions)، همگی راهبردهای جدیدی را برای اَبری‌سازی پیشنهادات خود، پذیرش سفارشات آنلاین، شبکه‌سازی نرم‌افزار محور (SDN)، رابط‌های برنامه‌نویسی کاربردی (APIs)، ابزارهای هماهنگ‌سازی و تخصصی عملیات توسعه (DevOps)، به کار بسته‌اند.

جابجایی‌های ابری همچنین به این معنا خواهد بود که تقاضاهای اَبَرمقیاس برای فضاهای مرکز داده ادامه خواهند یافت. به گفته‌ی سامی بَدری (Sami Badri)، تحلیل‌گر ارشد در کرِدیت سوئیس (Credit Suisse)، شتاب در پذیرش روند جدید در سازمان‌ها دارای مزایایی برای توسعه‌دهندگان عمده‌فروش نیز است، زیرا اَبَرمقیاس‌خواهان با اجاره‌کردن فضا به جای ساخت مراکز داده‌ی خودشان، با این روند همگام می‌شوند.

بَدری در یک نوشتار اخیر خود می‌نویسد: «بر مبنای بحث‌هایی که ما با متخصّصان صنعت داشته‌ایم و نقاط داده‌ای که از ساخت‌وسازهای مراکز داده‌ی چند مستاجری (MTDC) دریافت کرده‌ایم، انتظار داریم پیش‌بینی درصد برون‌سپاری در سال‌های ۲۰۲۳-۲۰۲۲ به بالای ۶۰٪ در مقابل ترکیب زیر ۵۰٪ که در پنجره‌ی زمانی ۲۰۲۱-۲۰۲۰ دیده‌ایم، برسد. این روند عمدتاً ناشی از نیازهای بیشتر به ظرفیت‌های جغرافیایی، حساسیت‌های زمانی، و نیز شرایطی محیطی می‌باشد که در کل دارای محدودیت در زنجیره‌ی عرضه است.»

مایرز (Meyers)، مدیرعامل اکوئینکس می‌گوید که بلوغ‌یافتن پیشنهادهای ابری و هم‌مکانی، شرکت‌های بیشتری را قادر می‌سازد تا از اَبر استفاده کنند و این، بازی فناوری اطلاعات را در تمام جهات ارتقاء می‌بخشد.

مایرز همچنین می‌گوید: «کسب‌وکارها در سطح جهانی همچنان تحول دیجیتال را در اولویت‌های خود قرار می‌دهند. محرّک‌های پایدار در کسب‌وکار ما هرگز تا این حد قوی نبوده‌اند، چراکه رهبران دیجیتال خواهان زیرساخت‌هایی هستند که بیش از هر زمان دیگر توزیع‌شده‌تر، زیست‌بوم‌پذیرتر، انعطاف‌پذیرتر، پایدارتر و به هم پیوسته‌تر باشند.»

مایرز می‌افزاید: «این یک حرکت واقعاً قوی به سمت تحول دیجیتال بوده و همه اذعان دارند که این یک منبع حیاتی برای ایجاد مزیّت رقابتی است. آنها بر همین اساس به سرمایه‌گذاری در این حوزه ادامه داده و تفکّر خود را در خصوص زیرساخت‌‌های در اختیارشان که ترکیبی از بارهای کاری مبتنی بر اَبر و زیرساخت‌های خصوصی هستند، به‌روز می‌کنند. ما در حال مشاهده‌ی نیروهای فوق‌العاده قوی در تمام صنعت و برای تمام بازیگران در آن هستیم.»

منتشر شده در  وب‌سایت Data Center Frontier
برگردان توسط حامد معین‌فر
در شرکت مهندسین فناور پندار آریا – پنداریا

محاسبات در جایی که داده‌ها قرار گرفته‌اند

عنوان اصلی مقاله: Computing Where Data Resides
تاریخ انتشار و نویسنده: March 29th, 2021 – By: Ann Steffora Mutschler
وب‌سایت منتشر کننده: Semiconductor Engineering
لینک اصلی مقاله

ذخیره‌سازی محاسباتی و متعارف

رویکرد ذخیره‌سازی محاسباتی (رایانشی)، محدودیت‌های «توان» و «دیرکرد» را جابجا می‌کند.

در حالی که معماران سامانه‌ها، با چالش‌های هم‌زمانی چون افزایش تاثیر جابجایی مقادیر زیاد داده‌ها میان پردازنده‌ها، حافظه‌های سلسله‌مراتبی (Hierarchical memory) و ذخیره‌سازها بر عملکرد، مصرف انرژی و میزان دیرکرد (Latency) دست‌وپنجه نرم می‌کنند، کشش جدیدی برای استفاده از ذخیره‌سازی محاسباتی یا ذخیره‌سازی رایانشی (Computational storage) شروع به پدیدار شدن کرده‌است.

طبق گفته‌ی آی‌دی‌سی (IDC, International Data Corporation)، حجم داده‌های جهانی از ۴۵ زِتابایت در سال ۲۰۱۹ تا ۱۷۵ زِتابایت در سال ۲۰۲۵ رشد خواهد کرد. اما اساساً این داده‌ها بی‌فایده خواهند بود، مگر آنکه تجزیه و تحلیل شده و یا حداقل مقداری محاسبات بر روی آنها انجام شود؛ این در حالی است که انتقال این داده‌ها به پردازنده‌های مرکزی (CPU) بیشتر از خود محاسبات، انرژی صرف می‌کند. رویکردهایی مانند ذخیره‌سازی محاسباتی سعی در کاهش این مشکلات دارند.

مقایسه‌های متعدّدی میان ارزش نفت و داده (Data) انجام شده‌است. کارتک سِرینیواسان (Kartik Srinivasan)، مدیر بازاریابی گروه مراکز داده شرکت زیلینکس (Xilinx) می‌گوید: «به طور منطقی نفت و داده هر دو بی‌فایده هستند، مگر آنکه روی آنها کاری انجام دهید. نمی‌توانید نفت خام را در اتومبیلتان بریزید؛ برای اینکه قابل استفاده شود باید بر روی آن فرآوری انجام دهید. این حتی در رابطه با داده‌ها بیشتر چالش برانگیز است؛ چرا که میزان دیرکردی که در دسترسی به داده‌ها در طول فرایند تجزیه و تحلیل ایجاد می‌کنید، فوق‌العاده حیاتی است. هنگامی که یک کارگزار سهام، اطلاعاتی دریافت می‌کند که می‌گوید: «این معامله توسط موتور تحلیل بازار به شما پیشنهاد می‌شود.» اگر پنج دقیقه دیرتر به دستش برسد، دیگر فایده‌ای ندارد. بنابراین اگر تجزیه و تحلیل بر روی داده‌ها با میزان دیرکرد مناسب انجام نشود، ارزش داده از بین خواهد رفت.»

انواع و اقسام بسترهای اشتراک‌گذاری و پخش آنلاین (Streaming) داده‌ها باعث افزایش میزان تولید، مبادله و به اشتراک‌گذاری داده‌ها شده‌‎اند. طبق مشاهدات اسکات دورانت (Scott Durrant)، مدیر بازاریابی بخش ابری دیزاین‌ور آی‌پی (DesignWare IP) شرکت سیناپسیس (Synopsys)، همه‌گیری حاضر [کرونا] تقاضا را برای ظرفیت‌های بالاتر مراکز داده، سرعت شبکه، ظرفیت‌های ذخیره‌سازی و عملکرد بالاتر تشدید کرده است. «این امر با وجود کووید (Covid) به شکل نمایی افزایش یافته و انتظار می‌رود تغییراتی که در نحوه‌ی کار کردن، نحوه‌ی یادگیری، نحوه‌ی تعامل، و نحوه‌ی سرگرمی ما ایجاد شده‌اند، دائمی باقی بمانند.»

در نتیجه، اکنون طراحان «سامانه روی یک تراشه (SoC, System on a Chip)» که دستگاه‌هایی برای کاربردهای با سرعت بالا و دیرکرد پایین تولید می‌کنند، شروع به بررسی معماری‌های جایگزین از جمله ذخیره‌سازهای محاسباتی کرده‌اند.

دورانت می‌گوید: «هم‌زمان با این موضوع که می‌بینیم سامانه‌های کنترلی بیشتری برخط (Online) می‌شوند، اهمیت حیاتی میزان دیرکرد پایین نیز افزایش می‌یابد. در کنار این، یکی دیگر از موارد مورد توجه در مراکز داده، بهینه‌سازی در به‌کارگیری انرژی است. در حال حاضر یک حرکت بزرگ به سمت صفر کردن خالص رد پای کربنی در مراکز داده آغاز شده است که در واقع یک چالش بزرگ است؛ چرا که امروز مراکز داده مصرف‌کنندگان عظیم نیرو هستند؛ بنابراین از این پس دیگر تمام عناصر مرکز داده نقش خود را حول این چالش ایفا خواهند کرد. هر جا که صحبت از بهینه‌سازی مصرف نیرو شود، مراکز داده مسیر خود را به سمت آن چه به صورت سنّتی معماری دستگاه‌های همراه (Mobile) بوده است، تغییر می‌دهند. سال‌هاست که دستگاه‌های همراه در تلاش هستند با به حداقل‌رساندن مصرف نیرو و خاموش کردن آن قطعاتی از دستگاه که در یک زمان مشخص استفاده نمی‌شوند، عمر باتری خود را به حداکثر ممکن برسانند. امروز پیاده‌سازی‌های مشابهی در مراکز داده مشاهده می‌کنیم تا بهره‌وری نیرو به حداکثر رسانده شود. همچنین، معماری‌های جدیدی نیز برای پردازنده‌ها معرفی شده‌اند که به طور معمول در دستگاه‌های همراه استفاده می‌شدند. به عنوان نمونه، اکنون پردازنده‌های آرم (Arm) زیرساخت‌های مراکز داده را هدف قرار داده‌اند؛ ضمن آنکه پردازنده‌های آرم و ریسک-وی (RISC-V) به اندازه‌ی کافی آن آزادی دارند و باز هستند که بتوان آنها را برای یک بار کاری (Workload) خاص بهینه‌سازی کرد.»

تأثیر ذخیره‌سازی محاسباتی بر مصرف انرژی

تصویر ۱: تأثیر ذخیره‌سازی محاسباتی بر مصرف انرژی. منبع: سینوپسیس (Synopsys)، بیست و یکمین کنفرانس آی‌تریپل‌ای (IEEE) با موضوع اِچ‌پی‌سی‌سی (HPCC)، اوت ۲۰۱۹

این همان جایی است که ذخیره‌سازی محاسباتی، به کار می‌آید. سِرینیواسان می‌گوید: «ایده‌ی انجام رایانش مستقیماً بر روی داده‌ها از ابتدا مطرح بوده است. اما با تحول دیجیتال (Digital transformation)، اکنون سخت‌افزارهایی با قیمت معقول برای انجام تجزیه و تحلیل و نرم‌افزارهایی با چارچوب‌هایی که اجازه دهند آن تجزیه و تحلیل انجام شود، وجود دارند. اکنون این اجزاء به نحو مطلوبی در حال قرار گرفتن در کنار یکدیگر هستند؛ داده‌ها به شکل دیجیتال هستند، سخت‌افزارهای مقرون به صرفه موجود هستند، و چارچوب‌های نرم‌افزاری برای اجرا در دسترس هستند.»

البته، این دشوارتر از آن است که به نظر می‌رسد. استیون وو (Steven Woo)، همکار و مخترع برجسته در شرکت رَمبس (Rambus) می‌گوید: «دیسک‌ها و دیسک‌های متعددی مملو از داده‌ها وجود خواهند داشت، و ممکن است شما تنها به یک یا دو تکه از آنها نیاز داشته باشید، اما همه‌ی آنها باید جستجو شوند. روش مرسوم برای انجام این کار این است که همه چیز داخل دیسک‌ها را بردارید، آنها را به یک سی‌پی‌یو (CPU) منتقل کنید، و سپس سی‌پی‌یو همه چیز را جستجو کند و ۹۹٬۹۹۹٪ آنها را دور بیندازد. در واقع مقدار زیادی از کارهایی که انجام می‌دهد هَدر می‌رود. ممکن است به طریقی دیگر آرایه‌ای از دیسک‌ها وجود داشته باشد و سامانه به نحوی تنظیم شده باشد که تمام داده‌ها را به صورت موازی منتقل کند تا فرایند سریع‌تر شود؛ اما باز در نهایت، همچنان یک سی‌پی‌یو وجود دارد که در جستجوی داده‌ها بوده و خود یک گلوگاه می‌شود.»

وو می‌گوید: «این همان جایی است که ذخیره‌سازی محاسباتی واقعاً می‌درخشد. اگر هر یک از دیسک‌ها در خود کمی هوشمندی داشته باشند، چه رخ می‌دهد؟ آنگاه این امکان وجود خواهد داشت که به همه‌ی دیسک‌ها بگویید: «به طور موازی جستجو کنید؛ یعنی بروید و هر یک از شما تمام اطلاعات خود را مرور (Scan) کنید، فقط آنچه را که با این درخواست خاص من مطابقت دارد، به من برگردانید.» جالب اینجاست که من پهنای باند و انرژی را برای داده‌هایی که هرگز استفاده نخواهم کرد هَدر نمی‌دهم. همه چیز به صورت محلی (Local) باقی می‌ماند و من فقط چیزهایی را مشاهده می‌کنم که با معیارهای جستجوی من مطابقت دارند.»

کاربردهای گسترده

کشش جدیدی برای استفاده از ذخیره‌سازی محاسباتی در لایه‌ی لبه (Edge) شروع به پدیدار شدن کرده‌است؛ لایه‌ی لبه، یک سلسله‌مراتب نامرتب از منابع محاسباتی است که گستره‌ای از دستگاه‌های انتهایی (End devices) تا انواع مختلف سرورهای نصب‌شده را چه در محل (on-premise) و چه بیرون محل (off-premise) شامل می‌شود. هدف در همه‌ی آنها، در صورت امکان، انجام هرچه بیشتر محاسبات در نزدیکی منبع و محدود کردن فاصله‌ای است که آن داده نیاز به پیمودن دارد.

نیل وِردمولر (Neil Werdmuller)، مدیر راه‌حل‌های ذخیره‌سازی در شرکت آرم می‌گوید: «آنچه که امروز اتفاق می‌افتد این است که داده‌ها در هر صورت منتقل می‌شوند، حتی اگر در خود لایه‌ی لبه تولید شده باشند؛ چه تصاویر دوربین‌های نظارتی باشند و چه پلاک‌های خوانده‌شده‌ی خودروها. به طور معمول، تمام یک جریان داده به جایی دورتر برای سرور اصلی ارسال شده و سپس در آنجا پردازش می‌شود. تنها چیزی که ممکن است هر از چندگاهی از تمام آن جریان‌های سنگین داده‌ها استخراج شود، مثلاً یک شماره پلاک ساده است که این واقعاً دیوانگی است. اگر بتوانید پردازش را در خود لبه انجام دهید، آنگاه فقط همان تصویر یا مقدار استخراج‌شده‌ی مورد نیاز را به آن جایی که لازم باشد ارسال می‌کنید؛ این بسیار منطقی‌تر خواهد بود.»

مقایسه ذخیره‌سازی محاسباتی و متعارف

تصویر۲: ذخیره‌سازی محاسباتی در مقابل ذخیره‌سازی سنّتی. منبع: آرم

مثال دیگر می‌تواند در تنظیمات مخابراتی 5G باشد، زمانی که ذخیره‌سازی محاسباتی در پای برج‌های سلولی (Cell towers) پیاده‌سازی می‌شود. طبق گفته‌ی وِردمولر «اگر وسیله‌ی نقلیه‌ای از محدوده‌ی آن سلول خاص عبور کند، در صورتی می‌توان به آن خودرو خدمات نقشه با کیفیت بالا (HD) ارائه داد که کاشی‌های تصویری که نیاز هستند، در همان محلی که به آنها نیاز است ذخیره شده باشند؛ این در مقابل آن وضعیتی است که تمام وسایل نقلیه‌ای که از محدوده‌ی آن سلول عبور می‌کنند، مجبور باشند مکرّراً یک کاشی تصویری یکسان را هر بار از نقطه‌ای مرکزی بارگیری (Download) نمایند. تمام آن انتقال‌های رفت و برگشتی گران هستند، انرژی مصرف می‌کنند و موجب افزایش در «دیرکرد» می‌شوند؛ زیرا که غالباً با جابجایی داده‌ها در این روش، «دیرکرد» نیز موضوعیت پیدا می‌کند.»

همچنین، پردازش داده‌ها در لبه‌ دارای مزایایی از دست حریم خصوصی و امنیتی نیز هست.

اما همه‌ی داده‌ها را نمی‌توان در لایه‌ی لبه جمع‌آوری و پردازش کرد، در اَبر (Cloud) نیز فرصت بزرگی برای استفاده از ذخیره‌سازی محاسباتی وجود دارد.

وِردمولر می‌گوید: «مدیریت همه‌ی این داده‌ها واقعاً چالش برانگیز بوده و بارهای کاری به شدت در حال انفجار هستند. مدیریت تمام حجم‌کارها در سرور و اجبار به انتقال داده‌ها به آن سرور پیچیده است؛ مصرف نیرو را افزایش می‌دهد، به دیرکرد می‌افزاید. بنابراین اگر شما ذخیره‌سازی را در اختیار داشته باشید که داده‌های به‌خصوصی بر روی آن ذخیره شده‌اند، می‌توانید بار کاری به‌خصوصی نیز در اختیار داشته باشید که بر روی آن داده‌ها اعمال می‌کنید. به عنوان نمونه، اگر می‌خواهید از یادگیری ماشینی (Machine learning) با توانایی تشخیص چهره بر روی تعداد زیادی عکس بهره بگیرید، اگر بدانید که آن عکس‌ها کجا بر روی درایوها ذخیره شده‌اند، آنگاه اجرای آن بر روی داده‌های حقیقی بسیار منطقی‌تر به نظر می‌رسد؛ شما بار کاری کمتری را به شکل متمرکز مدیریت کرده‌اید و قادر می‌شوید بارهای کاری را توزیع نمایید.»

همه‌ی این‌ها به دلیل انرژی و زمانی که برای جابجایی داده‌ها صرف می‌شوند و افزایش حجم داده‌هایی که باید خیلی سریع پردازش شوند، برای شرکت‌ها جذابیت پیدا کرده‌اند. وو می‌گوید: «اگر انرژی و زمان زیادی صرف نمی‌شد، مشکلی نیز وجود نداشت. وقتی شما این توانایی را دارید که اطلاعات دارای موضوعیت را تنها برای رایانش مرکزی منتقل نمایید، شاید قادر باشید که مقدار کمی محاسبات ساده در فضای ذخیره‌سازی انجام دهید. حال اگر شما آن توانایی را داشته باشید که تنها مقادیر کمتری از داده‌های بسیار معنی‌دار را برای سی‌پی‌یو ارسال کنید، آنگاه سی‌پی‌یو تلاش خواهد کرد و تا زمانی که قادر باشد خواهد توانست آن داده‌ها را پیش خود نگه دارد؛ سی‌پی‌یو آن زمانی قادر است فنون یادگیری ماشینی را اجرا کند که داده‌ها را پیش خود نگه داشته‌باشد و تلاش کند آنها را جابجا نکند. چیزی که در تمام این‌ها به آن امیدوار هستید اتفاق بیفتد این است که جابجایی داده‌ها در دیسک‌ها را به حداقل برسانید. آنگاه، وقتی که چیزی معنی‌دارتر یافتید، می‌توانید آن را برای پردازنده‌ی مرکزی ارسال کنید، لذا دیگر پهنای باند هَدر نمی‌رود، چون تنها چیزهای معنی‌دار را ارسال کرده‌اید. آنگاه پردازنده آن را تا آنجا که ممکن باشد نگه داشته و سعی می‌کند آن را جابجا نکند. همه‌ی این‌ها برای به حداقل رساندن جابجایی داده‌ها طراحی شده‌اند.»

تکامل از اِس‌اِس‌دی (SSD) به سی‌اِس‌دی (CSD)

از منظر طراحی، مسیر حرکت از درایو حالت جامد (SSD, Solid state drive) به دستگاه ذخیره‌ساز محاسباتی (CSD, Computational storage device) یک مسیر تکاملی است.

بِن وایتهد (Ben Whitehead)، مدیر محصول راه‌حل‌های بخش تقلیدکننده (Emulation) در زیمنس ای‌دی‌اِی (Siemens EDA) می‌گوید: «تا حدود سال ۲۰۱۹، ما مشغول حل یکی از بزرگترین مشکلات «تقلیدکننده‌ها» بودیم، آنجایی که کاربران در تلاش بودند تا بتوانند در داخل اِس‌اِس‌دی‌ها (SSDs) کار کنند؛ یعنی  بتوانند عملکرد – به ویژه آیوپس (IOPS) (ورودی / خروجی در هر ثانیه) – و پهنای باند و میزان دیرکرد را اندازه‌گیری کنند. مشکل عظیم دیگر روش‌های تصدیق (Verification) در آن زمان، میزان دیرکرد در آنها بود، چرا که خیلی دقیق نبودند. شاید شما قادر بودید یک راه حل با عملکرد صحیح پیدا کنید، و در نظر اول با خود بگویید «وای، چه عالی»، ولی به محظ آن که شما نتیجه آخرین فاز طراحی (Tape-out) را بر می‌داشتید و وارد آزمایشگاه می‌شدید، متوجه می‌شدید که عملکرد آن به مرتبه بزرگی از پیش‌بینی‌های شما فاصله دارد. شرم‌آور بود که چه‌قدر بد عمل می‌کرد. کار می‌کرد، اما واقعاً ما در مرحله‌ی قبل از ساخت (Pre-silicon) قادر به اندازه‌گیری دقیق کارکرد نبودیم. این تازه دشواری کار با تنها یک اِس‌اِس‌دی‌ است. اما یک محصول جنبی جالب توجه که حاصل همه‌ی آن کارها بر روی اِس‌اِس‌دی‌‌ها بود، این بود که اِس‌اِس‌دی‌‌ها شروع به جای‌دادن پردازنده‌های متعدّد در درون خود کردند، پردازنده‌های بلادرنگ (Real-time). من بر روی طرح‌های هشت ریزپردازنده‌ی نسبتاً بزرگ در حال طراحی کار کردم و دیدم که چگونه آنها در یک سامانه‌ی دیجیتالی که ذخیره‌ساز شما در آن خاموش است، داده‌ها را خیلی سریع تحویل داده و سپس به نوعی بیکار (idle) می‌مانند. پردازنده‌ها بیشتر اوقات بی‌کار می‌نشینند و وقتی که به آنها نیاز شد، به یک باره واقعاً مورد نیاز می‌شوند. مانند یک خلبان جت جنگنده که چهار ساعت کسالت‌آور منتظر است و به دنبال آن ناگهان ۱۵ ثانیه‌ی وحشت‌آور تجربه می‌کند. این کاری است که درایوها انجام می‌دهند. آنها می‌نشینند، تنها در انتظار اینکه داده‌ها را به شکل انفجاری عقب و جلو کنند. با وجود تمام آن قدرت پردازشی که در آنها است، این منطقی بود که بخواهیم کار بیشتری با آنها انجام شود.»

سی‌اِس‌دی‌ها (CSD) به مشکل جابجایی داده‌ها پاسخ می‌دهند. وایتهد می‌گوید: «حافظه‌های نهان لایه‌ی دو، اِل‌تو کَش (L2 Cache) دائماً با درخواست‌های داده برای CPU روی مادربُرد (Motherboard)، بمب‌باران می‌شوند. وقتی پردازنده آن همه زمان صرف جابجایی داده‌ها به جلو و عقب می‌کند، این سؤال ایجاد می‌شود که، «ما داریم اینجا چه کار می‌کنیم؟» و نیز این درک را ایجاد می‌کند که بیشتر آن پردازش می‌تواند در جای دیگری انجام شود. آنجاست که واقعاً برای استفاده از سی‌اِس‌دی کشش ایجاد می‌شود، اینکه بتوانیم بخشی از آن توان پردازشی بر روی خود دستگاه‌های ذخیره‌ساز را استفاده کنیم.»

دیگران نیز موافق هستند؛ کورت شولر (Kurt Shuler)، معاون بازاریابی شرکت آرتریس آی‌پی (Arteris IP)، می‌گوید: «ده سال پیش درایوهای حالت جامد (SSDs) جدید بودند. در واقع هنوز چیزی به عنوان اِس‌اِس‌دی صنعتی یا سازمانی (Enterprise) وجود نداشت. بلکه ریزکنترل‌گرهای کوچکی بودند که بر روی درایوهای سخت از نوع صفحه‌ای نصب می‌شدند. این وضعیتی بود که نیمه‌هادی‌ها در آن زمان در آن قرار داشتند. از آن موقع، خیلی چیزها تغییر کرده است. تعداد زیادی شرکت‌های نوپا روی کنترل‌گرهای پیشرفته اِس‌اِس‌دی کار کرده‌اند که مشکل اولیه‌ی آنها مرتبط با این واقعیت بود که حافظه‌های فلش (NAND flash) در حین کار بخشی از خود را از کار می‌اندازند، بنابراین شما باید همیشه سلامت سلول‌ها را پایش کنید. هر زمان که بفهمید تعدادی سلول خراب شده‌اند، باید جدایشان کرده و اعلام کنید که دیگر هیچ چیز در آنجا ذخیره نشود. اگر یک درایو ۱ ترابایتی اِس‌اِس‌دی بخرید، در واقع بیش از ۱ ترابایت فضا دارد، چرا که در زمان عملیات، خودش را تا حد مرگ خسته می‌کند. در رابطه با کنترل‌گرهای اِس‌اِس‌دی، این چالش اولیه بود. اما اکنون شرکت‌های تولیدکننده‌ی دیسک‌های ذخیره‌ساز ادغام‌های زیادی را تجربه کرده‌اند. اگر به آنچه در ذخیره‌سازی محاسباتی رخ می‌دهد نگاهی بیندازید، مشاهده می‌کنید که ما الان مشتریانی داریم که در مراکز داده‌ی خود از حافظه‌ها و کنترل‌گرهای اِس‌اِس‌دی که برای یک کاربری خاص مانند نظارت تصویری متمرکز شده‌اند، استفاده می‌کنند. بنابراین در عمل آن محاسباتی که با یک موضوع خاص سر و کار دارند، داخل همان کنترل‌گرها انجام می‌شوند؛ این کاملاً جدید است. در این محاسبات، مواردی مانند تجزیه و تحلیل‌های الگوریتمی سنّتی اگر/آنگاه (if/then) را مشاهده می‌کنید. سپس، برخی از این‌ها موتورهای هوش مصنوعی (AI) آموزش‌دیده هستند. اکنون، مسیر حرکت تمام اِس‌اِس‌دی‌ها و کنترل‌گرهای اِس‌اِس‌دی صنعتی به همین سمت است.»

این امر در حال تغییر شکل فضای رقابتی است، به ویژه که شرکت‌های ذخیره‌سازی سنتی‌ای مانند وِسترن دیجیتال (Western Digital) شروع به طراحی شتاب‌دهنده‌های سخت افزاری متعلق به خود کرده‌اند.

درک ذخیره‌سازی محاسباتی

این مفهوم از نقطه نظر فنی نسبتاً ساده است. مارک گرینبرگ (Marc Greenberg)، مدیر گروه بازاریابی محصولات گروه مالکیت‌های معنوی در شرکت کَدنس (Cadence) می‌گوید: «یک تابع جمع‌کننده یا شمارنده‌ی ساده را در یک نرم‌افزار در نظر بگیرید، x = x + 1. اگر x چیزی باشد که ما زیاد از آن استفاده می‌کنیم، احتمالاً به هر ترتیب در یک حافظه‌ی نهان (Cache) یا حافظه‌ی چرک‌نویس (Scratchpad) بر روی قالب پردازنده‌ی مرکزی (CPU die) ذخیره خواهد شد. اما بیایید فرض کنیم که ما تعداد زیادی از این شمارنده‌ها داریم و یا خیلی اوقات از برخی از آنها استفاده نمی‌کنیم؛ آنگاه، برخی از آنها در حافظه‌ی خارجی مانند دی‌رَم (DRAM) ذخیره می‌شوند. وقتی زمان آن فرا برسد که آن عملیات x = x + 1 را انجام دهیم، باید یک صفحه را در حافظه فعال کنیم، x را از دی‌رَم بخوانیم، x را به یک پردازنده منتقل نماییم، 1 را به آن اضافه کنیم و سپس دوباره آن را در دی‌رَم بنویسیم. بسته به اینکه این فرایند چه مقدار طول بکشد، ممکن است لازم شود از قبل، صفحه را در حافظه شارژ کنیم و سپس زمانی که آماده نوشتن شدیم، دوباره آن صفحه را فعال کنیم. همه‌ی این‌ها انرژی صرف می‌کنند، هم برای اینکه داده‌ها بین دی‌رَم و سی‌پی‌یو و دوباره دی‌رَم جابجا شوند و هم به خاطر اینکه یک صفحه در دی‌رَم فعال شده و خود جریان می‌کشد و انرژی مصرف می‌کند.»

طبق نظر گرینبرگ اگر داخل دستگاه حافظه یک عنصر منطق ساده وجود داشت، یک تراکنش می‌توانست به این شکل ارسال شود: «عدد 1 را به محتوای حافظه در آدرس x اضافه کن و نتیجه را برگردان.» با این کار، انرژی مورد نیاز برای انتقال اطلاعات بین رابط‌ها به نصف کاهش می‌یابد، مدت زمان مورد نیاز برای فعال نگاه داشتن آن صفحه در حافظه کاهش می‌یابد و بار از روی سی‌پی‌یو برداشته می‌شود.

از همین مثال ساده می‌تواند یک میلیون حالت منشعب شود. او می‌گوید: «حالا، آیا باید این قابلیت به هر x = x + y نیز تعمیم داده شود؟ اگر سرریز (Overflow) کرد چه؟ آیا باید امکان تفریق نیز داشته باشد؟ ضرب چه‌طور؟ در مورد سایر توابع پایه واحد محاسبه و منطق (ALU) مانند مقایسه (Compare)، جابجایی (Shift)، توابع دودویی (Boolean) چه می‌کنید؟ در نهایت می‌بینید که به یک سی‌پی‌یوی ثانویه در حافظه تبدیل شده‌است که شاید لزوماً چیز بدی هم نباشد، اما امروزه با توجه به وجود مبنای فکری «همه‌منظوره ساختن»، چنین چیزی اتفاق نمی‌افتد. حداقل در کوتاه مدت این‌طور به نظر می‌رسد که این مسیر با پردازنده‌های دارای عملکرد ویژه‌ی داخل حافظه آغاز شود. به عنوان مثال، شرکت‌هایی هستند که بعضاً با ساخت دستگاه‌های سفارشی حافظه که توابع پردازش ریاضی هوش مصنوعی را در داخل خود دارند، برخی توابع هدایت‌شده‌ی هوش مصنوعی را در همان حافظه انجام می‌دهند.»

مشکلاتی که باید برطرف شوند

دارکو توموسیلوویچ (Darko Tomusilovic)، سرپرست بخش تصدیق در شرکت وی‌تول (Vtool)، می‌گوید: «برای اینکه این مفهوم کار کند، باید داخل حافظه، قدرت منطق اضافه شود و شما باید تعدادی کنترل‌گر را به عنوان بخشی از بلوک حافظه، بخشی از منطق حافظه اضافه کنید. این با فلسفه‌ی جداسازی پردازنده از حافظه تناقض دارد. حالا شما یک قطعه‌ی منطقی را در داخل خود حافظه قرار داده‌اید و حالا هنگامی که می‌خواهید کنترل‌گرهای حافظه را در فرایند تولید تصدیق کنید، باید در نظر داشته باشید که این دیگر فقط یک کنترل‌گر حافظه‌ی احمق و گنگ نیست. حالا می‌تواند یک کارهایی هم انجام دهد. این به طور کامل مفهوم تصدیق را به هم می‌ریزد. به عنوان نمونه، قبلاً مجبور بودیم ابتدا زیرسامانه‌ی حافظه را تست کنیم، و سپس آن زیرسامانه‌ی حافظه را در محیط کامل تراشه ادغام نماییم، لذا این موضوع که تست‌های نرم‌افزاری باید تنها به عنوان بخشی از تست کامل تراشه اجرا شوند، کم و بیش یک روش‌ متداول بود. اما در حال حاضر این‌ها بسیار بیشتر در هم تنیده شده‌اند. از همین منظر است که می‌بینیم تقاضای زیادی برای به خدمت گرفتن مهندسین متخصّصی ایجاد شده است که تمرکز اصلی آنها بر روی تصدیق کنترل‌گرهای حافظه است، حالا دیگر این تقریباً یک حرفه‌ی کاملا مستقل شده‌است. به عنوان یک شرکت خدمات‌دهنده، تقاضای زیادی را به طور خاص برای این حرفه می‌بینیم.»

اندی هاینیگ (Andy Heinig)، رئیس دپارتمان محصولات الکترونیکی کارآمد در فرانهوفر آی‌اِس‌اِس (Fraunhofer IIS)، خاطرنشان می‌کند: «در عین حال، برای چنین رویکردهایی در همه‌ی سطوح، دچار فقدان استاندارد هستیم. برنامه‌نویسان می‌خواهند که در چارچوب‌ها (Frameworks) برنامه‌نویسی کنند؛ به این معنی که در سطح بالا بر اساس کتابخانه‌ها (Libraries) (مانند تِنسورفلو (Tensorflow) برای برنامه‌نویسی هوش مصنوعی) برنامه‌نویسی کنند. نرم‌افزارها نیز در سطوح انتزاعی بسیار مختلفی برنامه‌نویسی می‌شوند، مانند برنامه‌نویسی راه‌اندازها (Drivers) در سطح پایین، کتابخانه‌ها در سطح اول، کتابخانه‌های در سطح بالاتر بر اساس قبلی‌ها، برنامه‌نویسی نرم‌افزارهای کاربردی (Applications). شاید این امکان وجود داشته باشد که محاسبات داخل حافظه‌ای را در سطح راه‌اندازها کپسوله کرد، اما تصور ما این است که امکان شناسایی تمام پتانسیل‌های این رویکرد از این طریق مقدور نباشد. تنها در صورتی بهره‌گیری از پتانسیل کامل امکان‌پذیر خواهد بود که شما به این مکانیزم از تمام سطوح برنامه‌نویسی دسترسی داشته باشید، چرا که در آن صورت الگوریتم نرم‌افزار کاربردی قادر خواهد بود به طور مستقیم از محاسبات شتاب‌داده‌شده بر روی داده‌ها استفاده نماید. اما، دسترسی از تمام سطوح برنامه‌نویسی به آن، به این معنی است که وجود استانداردها در همه‌ی سطوح برنامه‌نویسی، برای دستیابی به سازگاری میان کتابخانه‌های مختلف یک الزام است. برای تحقّق این نوع برنامه‌نویسی در سطح چارچوب، ابتدا این موضوع باید در تعداد زیادی سطوح پایین‌تر محقّق شود. اگر برای هر معماری لازم باشد کار از نو انجام شود، وقت‌گیر و نیروبر خواهد بود. بنابراین باید برای هر سطح از جمله سطح سخت‌افزار، نرم‌افزار و راه‌انداز استاندارد آن ایجاد شود.»

در بسیاری از پیاده‌سازی‌های سی‌اِس‌دی (CSD)، به جای استفاده از یک پردازنده‌ی بلادرنگ در داخل درایو، از یک پردازنده‌ی کاربردی (Applications processor) بهره گرفته می‌شود. آقای وایتهد از زیمنس ای‌دی‌اِی (Siemens EDA) خاطرنشان می‌کند: «پردازنده‌های کاربردی نیازمندی و روش به‌کارگیری کاملاً متفاوتی نسبت به پردازنده‌های بلادرنگ دارند. آنها کاملاً متفاوت هستند. برخی ارائه‌دهندگان پردازنده از جمله شرکت آرم، در پاسخ به وجود این اختلاف‌ها، به طور اختصاصی پردازنده‌هایی با چندین هسته برای ذخیره‌سازی محاسباتی تولید کرده‌اند که در آنها هر دو عنصر پردازنده‌های بلادرنگ و پردازنده‌های کاربردی ترکیب شده‌اند، و در نتیجه می‌توان پردازش را در هر دو وضعیت انجام داد.»

طبق گفته وایتهد، بیشتر مهندسینی که در خصوص پردازنده‌های بلادرنگ، اِس‌اِس‌دی‌ها و کنترل‌گرها تجربه دارند، به نحوه‌ی کارکرد این نوع سی‌پی‌یوها نیز آشنا هستند. «همراه با یک پردازنده‌ی آرم، شما یک سفت‌افزار (Firmware) دارید که روی آن اجرا می‌شود، خواندن‌ها و نوشتن‌ها و زباله‌روبی‌ها و تمام آن چیزهایی را که بر روی یک اِس‌اِس‌دی لازم دارید، انجام می‌دهد؛ اما اکنون شما یک پشته‌ی کامل لینوکس (Linux) نیز در داخل دستگاه تحت آزمون (DUT) خود اضافه کرده‌اید، و این پیامدهایی در طراحی و نیز در تصدیق به همراه خواهد داشت؛ چرا که شما الان دیگر یک سامانه‌ی کاملاً برپاشده در درایو خود دارید. در نظر یک کامپیوتر می‌آید، و این به معنی چیزهای مختلفی است. هنوز باید در ظاهر از منظر میزبان (Host) خود شبیه یک اِس‌اِس‌دی باشد که بتوانید آن را در داخلش نصب کنید. هنوز می‌گوید که «من یک درایو هستم، و می‌توانم تمام نیازهای ذخیره‌سازی شما را پاسخ دهم.» اما اگر این سامانه آگاه باشد که یک سامانه‌ی لینوکس نیز در داخل خود دارد، می‌توانید به داخل آن سامانه اِس‌اِس‌اِچ (SSH) بزنید، و بعد دقیقاً داخل آن درایو مشابه یک سرور بی‌سر (Headless) به نظر خواهد رسید.»

هر زمان که این موضوع را مد نظر قرار دهیم که بزرگ‌ترین کشمکش ما با مقوله‌ی «عملکرد» و «دیرکرد» است، مجموعه‌ی کاملاً متفاوتی از استانداردهای تصدیق مطرح می‌شوند.

او می‌گوید: «اکنون شما یک پردازنده‌ی کاربردی را داخل درایو خود اضافه کرده‌اید. چگونه آن را اندازه‌گیری می‌کنید؟ اگر در حال کار باشد و شما لازم داشته باشید آن را در وضعیت بلادرنگ، راه‌اندازی مجدد (Reboot) نمایید، چه اتفاقی رخ می‌دهد؟ حالا شما دیگر واقعاً متغیرهای دیرکرد خود را به هم ریخته‌اید و ارقام کاملاً کج و معوج دریافت خواهید کرد. شما باید پیش‌بینی این وضعیت‌ها را نیز بکنید.»

او در عنوان‌کردن این موضوع تنها نیست. وِردمولر از آرم می‌گوید: «اساساً، اگر به سراغ ایده‌ی لینوکس بروید، دیگر تفاوتی به غیر از میزان ممکن محاسبات وجود نخواهد داشت. اگر به عنوان نمونه به یک کارت شبکه‌ی هوشمند آرم نگاه کنید، یا یک سرور مبتنی بر آرم، یا یک سرور اینتل زِئون (Intel Xeon)، چون بارهای کاری بسیار زیادی دارد و در حال مدیریت خیلی از امور است، معمولاً محاسبات بسیار سنگینی در آن انجام می‌شود. این می‌تواند برای برخی از بارهای کاری رویکرد مناسبی باشد. البته در مواردی دیگر، واقعاً مزیت‌هایی در انجام محاسبات توزیع‌شده به شکل محلّی وجود دارند؛ وقتی به جای آنکه همه‌ی کارها برای یک محاسبه‌ی واقعاً سنگین جابجا شوند که مقدار زیادی نیرو صرف خواهد شد، هر درایو تکه‌های کوچکی از آن کار را انجام می‌دهد. باید توجه داشت که یک محدودیت مشخص برای مصرف نیرو وجود دارد؛ معمولاً حداکثر تا ۲۵ وات برای هر شکاف پی‌سی‌آی‌ای (PCIe) وجود دارد که بیش از ۲۰ وات آن برای تآمین نیرو به حافظه‌ی فلش (NAND) و رَم (RAM) در دستگاه مصرف می‌شود. بنابراین شما تنها ۵ وات برای تمام کارهای دیگر در اختیار دارید. به نظر کم می‌آید، اما همچنان با این سطح از محاسبات نیز می‌توانید کارهای زیادی انجام دهید.»

نتیجه‌گیری

با انتقال بیشتر محاسبات به حافظه‌ها، سایر قسمت‌های معماری محاسبات نیز در حال تغییر هستند. سِرینیواسان از زیلینکس (Xilinx) می‌گوید: «قبلاً، تعریف قدیمی ما از سرور این بود که یک پردازنده‌ی مرکزی در داخلش هست که مسؤولیت تمام اتفاقات را بر عهده دارد. تمام پردازش‌های کاربردی، تمام داده‌ها توسط سی‌پی‌یو انجام می‌شوند و بقیه‌ی تجهیزات جانبی تقریباً تنها مسؤول ورود داده‌ها به پردازنده، ذخیره‌سازی آنها یا اجازه به حافظه چرک‌نویس برای دسترسی به داده‌ها به هر دلیل محاسباتی میانی، هستند.»

او می‌گوید: «اکنون، همین‌طور که این صنعت به آرامی شروع به تکامل می‌کند، یک تقسیم مسؤولیت نیز ایجاد شده‌است. از اَبَرمقیاس‌های بزرگ گرفته تا سازمان‌های کوچک‌تر، همه‌ی آنها این واقعیت را پذیرفته‌اند که تمام بارهای کاری به یک شکل ایجاد نمی‌شوند. شما می‌خواهید قادر باشید از سی‌پی‌یوها در کار مناسب، از جی‌پی‌یوها (GPUs) در محل صحیح، و از اِف‌پی‌جی‌اِی‌ها (FPGAs) برای آن کاری که توانایی انجامش را دارند استفاده کنید. به همین منظور است که مفاهیم ذخیره‌سازی محاسباتی، در سطح درایو، پردازنده یا آرایه اعمال خواهند شد.»

منتشر شده در  وب‌سایت Semiconductor Engineering
۲۹ مارس ۲۰۲۱ – توسط: آن استِفورا موچلر
برگردان توسط حامد معین‌فر
در شرکت مهندسین فناور پندار آریا – پنداریا