نوشته‌ها

عنوان اصلی مقاله: Cloud Shift May Accelerate as Edge Extends Into On-Premises Facilities
تاریخ انتشار و نویسنده: BY RICH MILLER – February 21, 2022
وب‌سایت منتشر کننده: Data Center Frontier
 لینک اصلی مقاله

مشتریان سازمانی در حال سنجش بهترین گزینه‌ها برای بهره‌گیری از مدل‌های رایانش ابری هستند. (عکس از: ریچ میلر)

نرم‌افزارها در حال بلعیدن جهان بوده و شرایط را برای بروز یک روند قدرتمند جدید آماده کرده‌اند – اَبرها در حال جویدن مراکز داده سازمانی هستند.

تغییر و جابجایی بارهای کاری فناوری اطلاعات سازمان‌ها از تأسیسات فناوری اطلاعات در محل به مراکز داده‌ی شخص ثالث، یک روند طولانی‌مدت بوده که اکنون شتاب بیشتری گرفته‌است. این مهاجرت در طول همه‌گیری کووید ۱۹ آهنگ بیشتری به خود گرفت، که باعث شد بسیاری از شرکت‌ها برای پشتیبانی از نیروی کار توزیع‌شده‌ی خود به خدمات ابری روی آورند.

بر اساس پیش‌بینی‌های جدید گارتنر، که اظهارات رَده‌های اجرایی شرکت‌های بزرگ بهره‌بردار مراکز داده نیز آن پیش‌بینی‌ها را تقویت می‌کند، هم‌زمان با ظهور گزینه‌های جدیدی که اکنون سخت‌افزارها و نرم‌افزارهای ابری را به شبکه‌های مخابراتی و مراکز داده‌ی مشتریان، از جمله به تأسیسات در محل، اضافه می‌کنند، این روند بیش از پیش تسریع خواهد شد.

مایکل واریلو (Michael Warrilow)، معاون پژوهشی گارتنر، می‌گوید: «در دو سال گذشته به دلیل کووید ۱۹، با واکنش سازمان‌ها به محرّک‌های کسب‌وکار و محرّک‌های اجتماعی، تغییر جهت به سمت فضاهای ابری شتاب گرفته‌است. ارائه‌دهندگان فناوری و خدماتی که نتوانند خود را با گام‌ جابجایی‌های ابری سازگار کنند، با مخاطرات فزاینده‌ای از جمله منسوخ‌شدن یا در بهترین حالت، سقوط به بازارهای با رشد کم مواجه خواهند شد.»

این تغییر جهت سریع به ابرها پیامدهای مهمی برای بخش مراکز داده به همراه دارد:

— تقاضای فزاینده برای سکّوهای ابری منجر به توسعه‌ی کسب‌وکار برای توسعه‌دهندگان عمده‌فروش فضاهای مرکز داده، از جمله سالن‌های داده‌ی کلیددَردست، فضاهای برق‌دارشده و پروژه‌های ساخت مبتنی بر نیاز، می‌شود. تحلیل‌گران اوراق بهادار که در حال رصد این بخش هستند، انتظار دارند که بهره‌برداران اَبَرمقیاس هم‌زمان با افزایش سرعت گسترش شبکه‌های خود، بیشتر به اجاره‌های عمده اتّکاء نمایند.

— هم‌زمان با گسترش و نفوذ فناوری‌های ابری به داخل سازمان‌ها، «اَبری‌سازی» صنعتِ هم‌مکانی این اجازه را به ارائه‌دهندگان خدمات مرکز داده می‌دهد تا یک نقشِ رو به رشد در معماری‌های ابریِ ترکیبیِ پذیرفته‌شده توسط مشتریان سازمانی، ایفا کنند.

— انتقال به فضاهای ابری، همچنین یک خبر خوب برای افزایش «قابلیت پایدارپذیری» می‌باشد، چراکه میزان بیشتری از بارهای کاری فناوری اطلاعات از مراکز داده‌ی در محل به تأسیسات بسیار بهینه‌سازی‌شده توسط سکّوهای ابری منتقل خواهند شد، که هم در مصرف انرژی کارآمدتر هستند و هم با احتمال بالاتری به وسیله‌ی انرژی‌های تجدیدپذیر تغذیه می‌شوند.

آوردن اَبر به محیط‌های قدیمی غیر ابری

گارتنر می‌گوید که فضاهای ابریِ توزیع‌شده، بیش از هر زمان دیگر مرز بین فناوری‌های سنتی اطلاعات و پیشنهادهای جدید ابری را محو می‌کنند. سرویس‌های وب آمازون (AWS)، گوگل و مایکروسافت همگی خدمات ابریِ جدیدی در لایه‌ی لبه را معرفی کرده‌اند که دارای قفسه‌ها و سرورهای از پیش نصب‌شده بوده و نقش ارائه‌دهنده‌ی خدمات به عنوان نقاط توسعه‌ای انتهایی برای سکّوهای ابری را ایفا می‌کنند.

گارتنر در یک مطلب مطبوعاتی می‌گوید: «پذیرش معماری‌های ابریِ توزیع‌شده توسط سازمان‌ها این پتانسیل را دارد که انتقال‌های ابری را حتی بیشتر تسریع نماید، چرا که موجب ورود خدمات ابری عمومی به دامنه‌های جدیدی می‌شود که عمدتاً تا کنون غیراَبری بوده‌اند و این موضوع، بازار  هدف را گسترش می‌دهد. سازمان‌ها نیز به دلیل توانایی اَبرها در برآورده‌سازی الزامات مکانی خاص مانند حکم‌رانی داده‌ها، تأخیر کم و پهنای باند شبکه، اقدام به ارزیابی و انتخاب آنها می‌کنند.»

در آخرین جلسات بررسی درآمدها، مدیران عامل بزرگ‌ترین ارائه‌دهندگان خدمات مرکز داده تأیید کردند که بلوغِ رو به رشد خدمات ابری، در حال تغییر معماری‌های فناوری اطلاعات سازمانی هستند.

چارلز مِیرز (Charles Meyers)، مدیر عامل اکوئینکس (Equinix) می‌گوید: «رایانش ابری انتظارات مشتریان را برای همیشه نسبت به سرعت و سادگی خدمات تغییر داده‌است. حالا مشتریان می‌خواهند زیرساخت‌های خود را در جایی که لازم دارند و در زمانی که لازم دارند مستقر نمایند و بارهای کاری مبتنی بر اَبر خود را با زیرساخت‌های خصوصی خود یکپارچه ساخته و امکان چابکی و جابجایی عملکرد بین این دو را برای خود ایجاد نمایند.»

مشتریان سازمانی، فقط متقاضی خدمات ابری بیشتر نیستند، بلکه آن خدمات را در مکان‌های بیشتری می‌خواهند. ارائه‌دهندگان ابری و هم‌مکانی بازیگران کلیدی در رفع چالش‌های حکم‌رانی داده‌ها در جاهایی که لازم است داده‌ها در داخل یک کشور حفظ شوند، بوده‌اند.

بیل استاین (Bill Stein)، مدیر اجرایی دیجیتال ریالتی (Digital Realty)، گفت: «ما شاهد یک روند رو به رشد هستیم که شرکت‌های چندملّیتی در همه‌ی بخش‌ها، در حال استقرار و اتّصال زیرساخت‌های خصوصی داده‌ی خود با ابعاد بزرگ بر روی سکوی پلتفرم‌دیجیتال (PlatformDIGITAL) در چندین منطقه و شهر در سراسر جهان هستند.»

پیشی‌گرفتن اَبر از فناوری‌های سنتی اطلاعات در بخش‌های کلیدی

بر اساس گزارش گارتنر، در سال ۲۰۲۲، بیش از ۱٬۳ تریلیون دلار هزینه‌کرد سازمان‌ها در فناوری اطلاعات تحت تاثیر جابجایی‌ها به سمت خدمات ابری قرار گرفته‌اند، که این رقم تا سال ۲۰۲۵ به تقریباً ۱٬۸ تریلیون دلار افزایش خواهد یافت.

گارتنر پیش‌بینی می‌کند که در بازارهای کلیدی، هزینه‌کرد فناوری اطلاعات سازمان‌ها در بخش رایانش ابری عمومی در سال ۲۰۲۵، از هزینه‌کرد فناوری اطلاعات آنها در بخش زیرساخت‌های سنتی پیشی خواهد گرفت. از جمله برای نرم‌افزارهای کاربردی، نرم‌افزارهای زیرساختی، خدمات مرتبط با فرایندهای کسب‌وکار و بازارهای زیرساخت‌های سامانه‌ای. تا سال ۲۰۲۵، حدود ۵۱٪ از هزینه‌کردهای فناوری اطلاعات در این چهار دسته از راه‌حل‌های سنتی به اَبرهای عمومی کوچ خواهند کرد، در مقایسه با سال  ۲۰۲۲ که این رقم حدود ۴۱٪ می‌باشد.

گارتنر خاطرنشان می‌کند: «هم‌زمان با حفظ اولویت تحوّلات بلندمدت دیجیتال و طرح‌های جدیدسازی در سال ۲۰۲۲، تداوم تقاضا برای قابلیت‌های یکپارچه‌سازی، فرایندهای کاری چابک و معماری‌های ترکیب‌پذیر، پیش‌ران انتقال مداوم به اَبرها خواهد بود. مدیران محصولات فناوری باید از جابجایی‌های ابری به عنوان یک عامل ایجاد فرصت در بازار بهره بگیرند.»

جهت‌گیری مرکز داده

تجهیزات لایه‌ی لبه‌ی مستقر در محل سازمان‌ها می‌توانند به برخی از شرکت‌ها اجازه دهند تا با «ارتباط مستقیم» با سکّوهای ابری، اتکای خود را به مسیرهای ارتباطی ورودی در تأسیسات هم‌مکانی کاهش دهند. اما اَبرها به عنوان یک نمونه از پارادوکس جوُنز (Jevons’ Paradox) نیز مطرح می‌شوند که در آن هزینه‌های کمتر منجر به استفاده‌ی بیشتر و موارد استفاده‌ی جدیدی خواهند شد که در تنظیمات قبلی غیرعملی می‌بودند.

به همین دلیل است که مهاجرت به ابر هیچ‌گاه یک «بازی مجموع صفر» نبوده، بلکه موجب تقویت کسب‌وکار هم برای ارائه‌دهندگان خدمات و هم برای سکّوهای ابری بوده‌است. همان‌طور که در گزارش اخیر DCF در خصوص فناوری‌های اطلاعات ترکیبی اشاره شده‌است، «امروزه شرکت‌ها در حال ترکیب و تطبیق مراکز داده‌ی سازمانی، ابری و هم‌مکان هستند تا نیازهای خود را برای تولید پایدار، نمونه‌سازی و توسعه‌ی سریع، امنیت، و نیازهای رو به رشد برای اَبَرمقیاس‌پذیری و محاسبات سفارشی‌سازی‌شده با کارایی بالا در جهت برآورده‌سازی الزامات روزافزون بارهای کاری خود، متعادل سازند.»

ارائه‌دهندگان خدمات هم‌مکانی، راهبرد «اَبری‌سازی» را برای تعریف مراکز داده‌ی خود در نقش پیوندگاه کلیدی در این معماری ترکیبی و چند محلی جدید فناوری اطلاعات اتخاذ کرده‌اند. بزرگترین ارائه‌دهندگان خدمات هم‌مکانی، از جمله اکوئینکس (Equinix)، دیجیتال ریالتی (Digital Realty)، سیکسترا (Cyxtera) و راه‌حل‌های مرکز داده ایوُک (Evoque Data Center Solutions)، همگی راهبردهای جدیدی را برای اَبری‌سازی پیشنهادات خود، پذیرش سفارشات آنلاین، شبکه‌سازی نرم‌افزار محور (SDN)، رابط‌های برنامه‌نویسی کاربردی (APIs)، ابزارهای هماهنگ‌سازی و تخصصی عملیات توسعه (DevOps)، به کار بسته‌اند.

جابجایی‌های ابری همچنین به این معنا خواهد بود که تقاضاهای اَبَرمقیاس برای فضاهای مرکز داده ادامه خواهند یافت. به گفته‌ی سامی بَدری (Sami Badri)، تحلیل‌گر ارشد در کرِدیت سوئیس (Credit Suisse)، شتاب در پذیرش روند جدید در سازمان‌ها دارای مزایایی برای توسعه‌دهندگان عمده‌فروش نیز است، زیرا اَبَرمقیاس‌خواهان با اجاره‌کردن فضا به جای ساخت مراکز داده‌ی خودشان، با این روند همگام می‌شوند.

بَدری در یک نوشتار اخیر خود می‌نویسد: «بر مبنای بحث‌هایی که ما با متخصّصان صنعت داشته‌ایم و نقاط داده‌ای که از ساخت‌وسازهای مراکز داده‌ی چند مستاجری (MTDC) دریافت کرده‌ایم، انتظار داریم پیش‌بینی درصد برون‌سپاری در سال‌های ۲۰۲۳-۲۰۲۲ به بالای ۶۰٪ در مقابل ترکیب زیر ۵۰٪ که در پنجره‌ی زمانی ۲۰۲۱-۲۰۲۰ دیده‌ایم، برسد. این روند عمدتاً ناشی از نیازهای بیشتر به ظرفیت‌های جغرافیایی، حساسیت‌های زمانی، و نیز شرایطی محیطی می‌باشد که در کل دارای محدودیت در زنجیره‌ی عرضه است.»

مایرز (Meyers)، مدیرعامل اکوئینکس می‌گوید که بلوغ‌یافتن پیشنهادهای ابری و هم‌مکانی، شرکت‌های بیشتری را قادر می‌سازد تا از اَبر استفاده کنند و این، بازی فناوری اطلاعات را در تمام جهات ارتقاء می‌بخشد.

مایرز همچنین می‌گوید: «کسب‌وکارها در سطح جهانی همچنان تحول دیجیتال را در اولویت‌های خود قرار می‌دهند. محرّک‌های پایدار در کسب‌وکار ما هرگز تا این حد قوی نبوده‌اند، چراکه رهبران دیجیتال خواهان زیرساخت‌هایی هستند که بیش از هر زمان دیگر توزیع‌شده‌تر، زیست‌بوم‌پذیرتر، انعطاف‌پذیرتر، پایدارتر و به هم پیوسته‌تر باشند.»

مایرز می‌افزاید: «این یک حرکت واقعاً قوی به سمت تحول دیجیتال بوده و همه اذعان دارند که این یک منبع حیاتی برای ایجاد مزیّت رقابتی است. آنها بر همین اساس به سرمایه‌گذاری در این حوزه ادامه داده و تفکّر خود را در خصوص زیرساخت‌‌های در اختیارشان که ترکیبی از بارهای کاری مبتنی بر اَبر و زیرساخت‌های خصوصی هستند، به‌روز می‌کنند. ما در حال مشاهده‌ی نیروهای فوق‌العاده قوی در تمام صنعت و برای تمام بازیگران در آن هستیم.»

منتشر شده در  وب‌سایت Data Center Frontier
برگردان توسط حامد معین‌فر
در شرکت مهندسین فناور پندار آریا – پنداریا

عنوان اصلی مقاله: Computing Where Data Resides
تاریخ انتشار و نویسنده: MARCH 29TH, 2021 – BY: ANN STEFFORA MUTSCHLER
وب‌سایت منتشر کننده: Semiconductor Engineering
لینک اصلی مقاله

ذخیره‌سازی محاسباتی و متعارف

رویکردهای ذخیره‌سازی محاسباتی محدودیت‌های قدرت و دیرکرد را در می‌نوردند.

در حالی که معماران سامانه‌ها، به صورت هم‌زمان با چالش‌هایی چون افزایش عملکرد، تاثیر در مصرف انرژی و میزان دیرکرد (Latency) ناشی از جابجایی مقادیر زیادی داده میان پردازنده‌ها، حافظه سلسله‌مراتبی (Hierarchical memory) و ذخیره‌سازها دست و پنجه نرم می‌کنند، کشش جدیدی برای استفاده از ذخیره‌سازی محاسباتی (Computational storage) شروع به پدیدار شدن کرده‌است.

طبق گفته‌ی IDC (International Data Corporation)، حجم داده‌های جهانی از ۴۵ زتابایت در سال ۲۰۱۹ تا ۱۷۵ زتابایت در سال ۲۰۲۵ رشد خواهد کرد. اما این داده‌ها اساساً بی‌فایده خواهند بود، مگر آنکه تجزیه و تحلیل شده و یا حداقل مقداری محاسبات بر روی آنها انجام شود؛ این در حالی است که انتقال این داده‌ها به پردازنده‌ی مرکزی (CPU) بیشتر از خود محاسبات، انرژی صرف می‌کند. رویکردهایی مانند ذخیره‌سازی محاسباتی سعی در کاهش این مشکلات دارند.

مقایسه‌های متعددی میان ارزش نفت و داده (Data) انجام شده‌است. کارتک سرینیواسان (Kartik Srinivasan)، مدیر بازاریابی گروه مراکز داده در شرکت زیلینکس (Xilinx) می‌گوید: «به طور منطقی نفت و داده هر دو بی‌فایده هستند، مگر آنکه روی آنها کاری انجام دهید. نمی‌توانید نفت خام را در اتومبیلتان بریزید؛ برای اینکه قابل استفاده شود باید بر روی آن فرآوری انجام دهید. این حتی در رابطه با داده‌ها، بیشتر چالش برانگیز است؛ چرا که دیرکردی که در دسترسی به داده‌ها پس از انجام تجزیه و تحلیل ایجاد می‌کنید، فوق‌العاده حیاتی است. هنگامی که یک کارگزار سهام اطلاعاتی دریافت می‌کند که می‌گوید: «این معامله توسط موتور (Engine) تحلیل بازار به شما پیشنهاد می‌شود.» اگر پنج دقیقه دیرتر به دستش برسد، دیگر فایده‌ای ندارد. بنابراین اگر تجزیه و تحلیل بر روی داده‌ها با میزان دیرکرد متناسب انجام نشود، ارزش داده از بین خواهد رفت.»

انواع و اقسام اشتراک‌گذاری‌ها و پخش آنلاین (Streaming) داده‌ها باعث افزایش میزان تولید، مبادله و به اشتراک در آمدن داده‌ها شده‎اند. طبق مشاهدات اسکات دورانت (Scott Durrant)، مدیر بازاریابی بخش ابری DesignWare IP شرکت سیناپسیس (Synopsys)، همه‌گیری حاضر تقاضا برای ظرفیت‌های بالاتر مراکز داده، سرعت شبکه، ظرفیت‌های ذخیره‌سازی و عملکرد بیشتر را تشدید کرده است. «این امر با وجود کووید (Covid) به شکل نمایی افزایش یافته و انتظار می‌رود تغییراتی که در نحوه کار کردن، نحوه یادگیری، نحوه تعامل، و نحوه سرگرمی ما ایجاد شده‌اند، دائمی باقی بمانند.»

در نتیجه، اکنون طراحان ”سامانه روی یک تراشه SoC (System on a Chip)“ که دستگاه‌هایی برای کاربردهای با سرعت بالا و دیرکرد پایین تولید می‌کنند، شروع به بررسی معماری‌های جایگزین از جمله ذخیره‌سازی محاسباتی کرده‌اند.

دورانت می‌گوید: «هم‌زمان با این موضوع که می‌بینیم سامانه‌های کنترلی بیشتری برخط (Online) می‌شوند، اهمیت حیاتی میزان دیرکرد پایین نیز افزایش می‌یابد. در کنار این، یکی دیگر از موارد مورد توجه در مراکز داده، بهینه‌سازی در به‌کارگیری انرژی است. در حال حاضر یک حرکت بزرگ به سمت صفر کردن خالص رد پای کربنی در مراکز داده آغاز شده است؛ که در واقع یک چالش بزرگ است، چرا که امروز مراکز داده مصرف‌کنندگان عظیم نیرو هستند؛ بنابراین از این پس دیگر تمام عناصر مرکز داده نقش خود را حول این چالش ایفا خواهند کرد. هر جا که صحبت از بهینه‌سازی نیرو شود، مراکز داده مسیر خود را به سمت آن چه به صورت سنتی معماری دستگاه‌های همراه (Mobile) بوده است، تغییر می‌دهند. سال‌هاست که دستگاه‌های همراه در تلاش هستند با به حداقل‌رساندن مصرف نیرو و خاموش کردن آن قطعاتی از دستگاه که در یک زمان مشخص استفاده نمی‌شوند، عمر باتری خود را به حداکثر برسانند. امروز پیاده‌سازی‌های مشابهی در مراکز داده مشاهده می‌کنیم تا بهره‌وری نیرو به حداکثر رسانده شود. همچنین، معماری‌های جدیدی نیز برای پردازنده‌ها معرفی شده‌اند که به طور معمول در دستگاه‌های همراه استفاده می‌شدند. به عنوان نمونه، اکنون پردازنده‌های Arm زیرساخت‌های مراکز داده را هدف قرار داده‌اند؛ ضمن آنکه پردازنده‌های Arm و RISC-V به آن اندازه کافی آزادی دارند و باز هستند که بتوان آنها را برای یک بار کاری (Workload) خاص بهینه‌سازی کرد.»

تأثیر ذخیره‌سازی محاسباتی بر مصرف انرژی

شکل 1: تأثیر ذخیره‌سازی محاسباتی بر مصرف انرژی. منبع: Synopsys، بیست و یکمین کنفرانس IEEE در مورد HPCC، آگوست ۲۰۱۹

این همان جایی است که ذخیره‌سازی محاسباتی، به کار می‌آید. سرینیواسان می‌گوید: «ایده انجام محاسبات بر روی داده‌ها از ابتدا مطرح بوده است. اما اکنون با تحول دیجیتال (Digital transformation)، سخت‌افزار با قیمت معقول برای انجام تجزیه و تحلیل و نرم‌افزار با چارچوبی که اجازه دهد آن تجزیه و تحلیل انجام شود، وجود دارد. الان این اجزاء به طرز مطلوبی در حال قرار گرفتن در کنار یکدیگرند؛ داده‌ها به صورت دیجیتالی آماده هستند، سخت‌افزار مقرون به صرفه موجود است، و چارچوب نرم‌افزاری برای اجرا در دسترس است.»

البته، این دشوارتر از آن است که به نظر می‌رسد. استیون وو (Steven Woo)، همکار و مخترع برجسته در شرکت رمبس (Rambus) می‌گوید: «دیسک‌ها و دیسک‌های متعددی مملو از داده وجود خواهند داشت، و ممکن است شما تنها به یک یا دو تکه از آنها نیاز داشته باشید، اما همه‌ی آنها باید جستجو شوند. روش مرسوم برای انجام این کار این است که همه چیز داخل دیسک‌ها را بردارید، آنها را به یک CPU منتقل کنید، و سپس CPU همه چیز را جستجو کند و ۹۹.۹۹۹٪ آنها را دور بیندازد. در واقع مقدار زیادی از کارهایی که انجام می‌دهد هدر می‌رود. ممکن است به طریقی دیگر آرایه‌ای از دیسک‌ها وجود داشته باشد، و سیستم به نحوی تنظیم شده باشد که تمام داده‌ها را به صورت موازی منتقل کند، تا فرایند سریع‌تر شود؛ اما باز در نهایت، همچنان یک CPU وجود دارد که در جستجوی داده‌ها است که خود یک گلوگاه می‌شود.»

وو می‌گوید: «این همان جایی است که ذخیره‌سازی محاسباتی واقعاً می‌درخشد. اگر هر یک از دیسک‌ها کمی هوشمندی در خود داشته باشند، چه می‌شود؟ آنگاه این امکان وجود خواهد داشت که به همه‌ی دیسک‌ها بگویید: «به طور موازی جستجو کنید؛ یعنی بروید، و هر یک از شما تمام اطلاعات خود را مرور (Scan) کنید، فقط آنچه را که با این درخواست خاص من مطابقت دارد، به من برگردانید.» جالب اینجاست که من پهنای باند و انرژی را برای داده‌هایی که هرگز استفاده نخواهم کرد هدر نمی‌دهم. همه چیز به صورت محلی (Local) باقی می‌ماند و من فقط چیزهایی را مشاهده می‌کنم که با معیارهای جستجوی من مطابقت دارند.»

کاربردهای گسترده

کشش جدیدی برای استفاده از ذخیره‌سازی محاسباتی در لبه (Edge)، شروع به پدیدار شدن کرده‌است؛ لبه، یک سلسله‌مراتب نامرتب از منابع محاسباتی است که گستره‌ای از دستگاه‌های انتهایی (End devices) تا انواع مختلف سرورهای نصب‌شده را چه در محل (on-premise) و چه بیرون محل (off-premise) شامل می‌شود. هدف در همه‌ی آنها، در صورت امکان، انجام هرچه بیشتر محاسبات در نزدیکی منبع و محدود کردن فاصله‌ای است که آن داده نیاز به پیمودن دارد.

نیل وردمولر (Neil Werdmuller)، مدیر راه‌حل‌های ذخیره‌سازی در شرکت آرم (Arm) می‌گوید: «آنچه امروز اتفاق می‌افتد این است که داده‌ها در هر صورت انتقال می‌یابند، حتی اگر در خود لبه تولید شده باشند؛ چه تصاویر دوربین‌های نظارتی باشند و چه پلاک‌های خوانده‌شده خودروها. به طور معمول، تمام آن جریان داده به جایی برای سرور اصلی ارسال شده و سپس در آنجا پردازش می‌شوند. چیزی که ممکن است هر از چندگاهی از تمام آن جریان‌های سنگین داده استخراج شود، مثلاً تنها یک شماره پلاک ساده است، که این واقعاً یک دیوانگی است. اگر بتوانید پردازش را در خود لبه انجام دهید، آنگاه تنها همان تصویر یا مقدار استخراج‌شده را به همان جا که لازم باشد ارسال می‌کنید؛ این بسیار منطقی‌تر خواهد بود.»

مقایسه ذخیره‌سازی محاسباتی و متعارف

شکل 2: ذخیره‌سازی محاسباتی در مقابل ذخیره‌سازی سنتی. منبع: Arm

مثال دیگر می‌تواند در تنظیمات مخابراتی 5G باشد، زمانی که ذخیره‌سازی محاسباتی در پای برج‌های سلولی (Cell towers) پیاده‌سازی می‌شود. طبق گفته وردمولر «اگر وسیله نقلیه‌ای از محدوده آن سلول خاص عبور کند، در صورتی می‌توان به آن خودرو سرویس نقشه با کیفیت بالا (HD) ارائه داد، که کاشی تصویری که نیاز است در همان محلی که نیاز است ذخیره شده باشد؛ این در مقابل آن وضعیتی است که هر وسیله نقلیه که از محدوده آن سلول عبور کند، مجبور باشد یک کاشی تصویری یکسان را هر بار از نقطه‌ای مرکزی بارگیری (Download) کند. تمام آن نقل و انتقال‌های رفت و برگشتی گران هستند، انرژی مصرف می‌کنند، و به دیرکرد می‌افزایند، زیرا که وقتی با این روش داده‌ها را جابجا می‌کنید، غالباً دیرکرد نیز در آن دخیل می‌شود.»

همچنین، پردازش داده‌ها در لبه‌ دارای مزایای حریم خصوصی و امنیتی نیز هست.

اما همه‌ی داده‌ها را نمی‌توان در لبه جمع‌آوری و پردازش کرد، در ابر (Cloud) نیز فرصت بزرگی برای استفاده از ذخیره‌سازی محاسباتی وجود دارد.

وردمولر می‌گوید: «مدیریت همه‌ی این‌ها واقعاً چالش برانگیز است و بارهای کاری به شدت در حال انفجار هستند. مدیریت تمام حجم‌کارها در سرور و مجبور شدن به انتقال داده‌ها به آن سرور پیچیده است؛ مصرف نیرو را افزایش می‌دهد، به دیرکرد می‌افزاید. بنابراین اگر شما ذخیره‌سازی را در اختیار داشته باشید که داده‌های به‌خصوصی بر روی آن ذخیره شده‌اند، می‌توانید بار کاری به‌خصوصی نیز در اختیار داشته باشید که بر روی آن داده‌ها اجرا می‌کنید. به عنوان نمونه، اگر می‌خواهید از یادگیری ماشینی (Machine learning) با توانایی تشخیص چهره بر روی تعداد زیادی عکس بهره بگیرید، اگر می‌دانید که آن عکس‌ها کجا بر روی درایوها ذخیره شده‌اند، آنگاه اجرای آن بر روی داده‌های حقیقی بسیار منطقی‌تر به نظر می‌رسد؛ شما بار کار کمتری را به شکل متمرکز مدیریت کرده و قادر می‌شوید بارهای کاری را توزیع نمایید.»

همه‌ی این‌ها به دلیل انرژی و زمانی که برای جابجایی داده‌ها صرف می‌شوند و افزایش حجم داده‌هایی که باید سریع پردازش شوند، برای شرکت‌ها جذاب شده‌اند. وو می‌گوید: «اگر انرژی و زمان زیادی صرف نمی‌شد، مشکلی نیز وجود نداشت. وقتی شما این توانایی را دارید که اطلاعات با اهمیت را به عقب ارسال کنید، شاید قادر باشید مقداری محاسبات ساده نیز در فضای ذخیره‌سازی انجام دهید. حال اگر شما آن توانایی را داشته باشید که تنها مقادیر کمتری از داده‌های بسیار معنی‌دار را برای CPU به عقب ارسال کنید، آنگاه CPU تلاش خواهد کرد و تا زمانی که قادر باشد خواهد توانست آن داده‌ها را پیش خود نگه دارد. CPU آن زمانی قادر است تکنیک‌های یادگیری ماشینی را اجرا کند که داده‌ها را پیش خود نگه داشته و تلاش کند آنها را جابجا نکند. چیزی که در تمام این‌ها به آن امیدوار هستید اتفاق بیفتد این است که جابجایی داده‌ها در دیسک‌ها را به حداقل برسانید. آنگاه، وقتی که چیزی معنی‌دارتر یافتید، می‌توانید آن را برای پردازنده به عقب ارسال کنید، لذا دیگر پهنای باند هدر نمی‌رود، چون تنها چیزهای معنی‌دار را ارسال می‌کنید. آنگاه پردازنده آن را تا آنجا که ممکن باشد نگه داشته و سعی می‌کند آن را جابجا نکند. همه‌ی این‌ها برای به حداقل رساندن جابجایی داده‌ها طراحی شده‌اند.»

تکامل از SSD به CSD

از منظر طراحی، مسیر حرکت از درایو حالت جامد SSD (Solid state drive) به دستگاه ذخیره‌ساز محاسباتی CSD (Computational storage device) یک مسیر تکاملی است.

بن وایتهد (Ben Whitehead)، مدیر محصول راه‌حل‌های بخش تقلیدسازی در شرکت اتوماسیون طراحی الکترونیک زیمنیس (Siemens EDA) می‌گوید: «تا حدود سال 2019، ما مشغول حل یکی از بزرگترین مشکلات تقلیدسازی بودیم، آنجایی که کاربران در تلاش بودند تا داخل SSDها کار کنند؛ یعنی اندازه‌گیری عملکرد – به ویژه IOPS (ورودی / خروجی در هر ثانیه) – و پهنای باند و میزان دیرکرد. مشکل عظیم دیگر روش‌های تصدیق در آن زمان، میزان دیرکرد در آنها بود؛ چرا که خیلی دقیق نبودند. شاید شما قادر بودید یک راه حل با عملکرد صحیح پیدا کنید، و در نظر اول با خود بگویید «وای، چه عالی»، ولی به محظ آن که شما نتیجه آخرین فاز طراحی (Tape-out) را بر می‌داشتید و وارد آزمایشگاه می‌شدید، متوجه می‌شدید که عملکرد آن به مرتبه بزرگی از پیش‌بینی‌های شما فاصله دارد. شرم‌آور بود که چه‌قدر بد عمل می‌کرد. کار می‌کرد، اما واقعاً ما در مرحله قبل از ساخت (Pre-silicon) قادر به اندازه‌گیری دقیق کارکرد نبودیم. این تازه دشواری کار با تنها یک SSD است. اما یک محصول جانبی جالب حاصل همه‌ی آن کارها بر روی SSD، این بود که SSDها شروع به جای‌دادن پردازنده‌های متعدد در خود کردند – پردازنده‌های بلادرنگ (Real-time). من بر روی طرح‌های هشت ریزپردازنده نسبتاً بزرگ در حال طراحی کار کردم؛ آنها در یک سامانه دیجیتال که فضای ذخیره‌سازی آن خاموش است، داده‌ها را خیلی سریع تحویل داده و سپس به نوعی بیکار می‌مانند. پردازنده‌ها بیشتر اوقات بی‌کار می‌نشینند، و وقتی که به آنها نیاز شد، به یک باره مورد نیاز می‌شوند. مانند یک خلبان جت جنگنده که چهار ساعت کسالت‌آور دارد و به دنبال آن ناگهان ۱۵ ثانیه وحشت‌آور. این کاری است که درایوها انجام می‌دهند. آنها می‌نشینند، تنها در انتظار اینکه داده‌ها را به شکل انفجاری عقب و جلو کنند. با وجود تمام آن قدرت پردازشی در اطرافشان، این منطقی بود که کار بیشتری با آنها انجام شود.»

موضوع CSD به مشکل جابجایی داده‌ها می‌پردازد. وایتهد می‌گوید: «حافظه‌های نهان L2 Cache دائماً با درخواست‌های داده برای CPU روی برد مادر (Motherboard)، بمب‌باران می‌شوند. وقتی پردازنده آن همه زمان صرف جابجایی داده‌ها به جلو و عقب می‌کند، این سوال ایجاد می‌شود که، «ما داریم اینجا چه کار می‌کنیم؟» و نیز این درک را ایجاد می‌کند که بیشتر آن پردازش می‌تواند در جای دیگری انجام شود. آنجاست که واقعاً برای استفاده از CSD کشش ایجاد می‌شود، اینکه بتوانیم بخشی از آن توان پردازشی بر روی خود دستگاه را استفاده کنیم.»

دیگران نیز موافق هستند؛ کورت شولر (Kurt Shuler)، معاون بازاریابی شرکت آرتریس آی‌پی (Arteris IP)، می‌گوید: «ده سال پیش درایوهای حالت جامد (SSD)، جدید بودند. در واقع هنوز چیزی به عنوان SSD سازمانی (Enterprise) وجود نداشت. بلکه ریزکنترل‌گرهای کوچکی بودند که بر روی درایوهای سخت از نوع صفحه‌ای نصب شده بودند. این وضعیتی بود که نیمه‌هادی‌ها در آن زمان در آن قرار داشتند. از آن موقع، خیلی چیزها تغییر کرده است. تعداد زیادی شرکت‌های نوپا روی کنترل‌گرهای پیشرفته SSD کار کردند و مشکل اولیه آنها این بود که حافظه‌های NAND flash در حین کار، بخشی از خود را از کار می‌اندازند؛ بنابراین شما باید همیشه سلامت سلول‌ها را بررسی کنید. هر زمان که بفهمید آنها خراب شده‌اند، باید جدایشان کرده و اعلام کنید که دیگر هیچ چیز در آنجا ذخیره نشود. اگر یک درایو 1 ترابایتی SSD بخرید، در واقع بیش از 1 ترابایت فضا دارد، چرا که در زمان عملیات خودش را تا حد مرگ خسته می‌کند. در رابطه با کنترل‌گرهای SSD، این چالش اولیه بود. اما اکنون، شرکت‌های تولیدکننده دیسک‌های ذخیره‌ساز ادغام‌های زیادی را تجربه کرده‌اند. اگر به آنچه در ذخیره‌سازی محاسباتی رخ می‌دهد نگاه بیندازید، مشاهده می‌کنید که ما الان مشتریانی داریم که در مرکز داده خود از حافظه‌ها و کنترل‌گرهای SSD که بر روی یک کاربری خاص مانند نظارت تصویری متمرکز هستند، استفاده می‌کنند. بنابراین در عمل آن محاسباتی که با یک مورد خاص سر و کار دارند، داخل همان کنترل‌گرها انجام می‌شوند؛ این کاملاً جدید است. در این محاسبات، مواردی مانند تجزیه و تحلیل‌های الگوریتمی سنتی اگر/آنگاه (if/then) را مشاهده می‌کنید. سپس، برخی از این‌ها موتورهای هوش مصنوعی یا AI آموزش‌دیده هستند. اکنون، مسیر حرکت تمام SSDها و کنترل‌گرهای SSD سازمانی به همین سمت است.»

این امر در حال تغییر شکل فضای رقابتی است، به ویژه که شرکت‌های ذخیره‌سازی سنتی‌ای مانند Western Digital شروع به طراحی شتاب‌دهنده‌های سخت افزاری متعلق به خود کرده‌اند.

درک ذخیره‌سازی محاسباتی

این مفهوم از نقطه نظر فنی نسبتاً ساده است. مارک گرینبرگ (Marc Greenberg)، مدیر گروه بازاریابی محصولات گروه مالکیت‌های معنوی در شرکت کَدنس (Cadence) می‌گوید: «یک تابع جمع‌کننده یا شمارنده ساده را در نرم‌افزار در نظر بگیرید، x = x + 1. اگر x چیزی باشد که ما زیاد از آن استفاده می‌کنیم، احتمالاً به هر ترتیب در یک حافظه نهان (Cache) یا حافظه چرک‌نویس (Scratchpad) بر روی قالب پردازنده مرکزی (CPU die) ذخیره خواهد شد. اما بیایید فرض کنیم که ما تعداد زیادی از این شمارنده‌ها داریم و یا خیلی اوقات از برخی از آنها استفاده نمی‌کنیم؛ آنگاه، برخی از آنها در حافظه خارجی مانند DRAM ذخیره می‌شوند. وقتی زمان آن فرا برسد که آن عملیات x = x + 1 را انجام دهیم، باید یک صفحه را در حافظه فعال کنیم، x را از DRAM بخوانیم، x را به یک پردازنده منتقل نماییم، 1 را به آن اضافه کنیم و سپس دوباره آن را در DRAM بنویسیم. بسته به اینکه این فرایند چه مقدار طول بکشد، ممکن است لازم شود از قبل صفحه را در حافظه شارژ کنیم و سپس زمانی که آماده نوشتن شدیم، دوباره آن صفحه را فعال کنیم. همه‌ی این‌ها انرژی صرف می‌کند، هم برای اینکه داده‌ها بین DRAM و CPU و دوباره DRAM جابجا شوند و هم به خاطر اینکه یک صفحه در DRAM فعال شده و خود جریان مصرف می‌کند.»

طبق نظر گرینبرگ اگر داخل دستگاه حافظه یک عنصر منطق ساده وجود داشت، یک تراکنش می‌توانست به این شکل ارسال شود: «عدد 1 را به محتوای حافظه در آدرس x اضافه کن و نتیجه را برگردان.» با این کار، انرژی مورد نیاز برای انتقال اطلاعات بین رابط‌ها به نصف کاهش می‌یابد، مدت زمان مورد نیاز برای فعال نگاه داشتن آن صفحه در حافظه کاهش می‌یابد و بار از روی CPU برداشته می‌شود.

از همین مثال ساده، یک میلیون گزینه می‌تواند منشعب شود. او می‌گوید: «حالا، آیا باید این قابلیت به هر x = x + y نیز تعمیم داده شود؟ اگر سرریز (Overflow) کرد چه؟ آیا باید امکان تفریق نیز داشته باشد؟ ضرب چه‌طور؟ در مورد سایر توابع پایه واحد محاسبه و منطق (ALU) مانند مقایسه (Compare)، جابجایی (Shift)، توابع دودویی (Boolean) چه می‌کنید؟ در نهایت می‌بینید که به یک CPU ثانویه در حافظه تبدیل شده‌است؛ که شاید لزوماً چیز بدی نباشد، اما امروزه با توجه به وجود مبنای همه‌منظوره ساختن، چنین چیزی اتفاق نمی‌افتد. حداقل در کوتاه مدت این‌طور به نظر می‌رسد که این مسیر با پردازنده‌های دارای عملکرد ویژه داخل حافظه آغاز شود؛ به عنوان مثال، شرکت‌هایی هستند که بعضاً با ساخت دستگاه‌های سفارشی حافظه که توابع پردازش ریاضی AI را در داخل خود دارند، برخی توابع هدایت‌شده AI را در حافظه انجام می‌دهند.»

مسائلی که باید برطرف شوند

دارکو توموسیلوویچ (Darko Tomusilovic)، سرپرست تصدیق در شرکت وی‌تول (Vtool)، می‌گوید: «اما برای اینکه کار کند، باید داخل حافظه، منطق اضافه شود؛ و شما باید تعدادی کنترل‌گر به عنوان بخشی از بلوک حافظه، بخشی از منطق حافظه اضافه کنید. این با فلسفه جداسازی پردازنده از حافظه تناقض دارد. حالا شما یک قطعه منطقی را در داخل خود حافظه قرار داده‌اید؛ و حالا هنگامی که می‌خواهید کنترل‌گرهای حافظه را تصدیق کنید، باید در نظر داشته باشید که این دیگر فقط یک کنترل‌گر احمق و گنگ حافظه نیست، حالا می‌تواند یک کارهایی هم انجام دهد. این به طور کامل مفهوم تصدیق را به هم می‌ریزد. به عنوان نمونه، قبلاً مجبور بودیم ابتدا زیرسامانه حافظه را تست کنیم، و سپس آن زیرسامانه حافظه را در محیط کامل تراشه ادغام نماییم، لذا این موضوع که تست‌های نرم‌افزاری باید تنها به عنوان بخشی از تست کامل تراشه اجرا شوند، کم و بیش یک روش‌ متداول بود. اما در حال حاضر این‌ها بسیار بیشتر در هم تنیده شده‌اند. از همین منظر است که می‌بینیم تقاضای زیادی برای مهندسین متخصصی ایجاد شده که تمرکز اصلی آنها بر روی تصدیق کنترل‌گرهای حافظه است، حالا دیگر این تقریباً یک حرفه کاملا مستقل شده‌است. به عنوان یک شرکت خدمات‌دهنده، تقاضای زیادی را به طور خاص برای این حرفه می‌بینیم.»

اندی هاینیگ (Andy Heinig)، رئیس دپارتمان محصولات کارآمد الکترونیکی قسمت مهندسی سامانه‌های انطباقی در مؤسسه‌ی مدارهای یکپارچه‌ی فرانهوفر (Fraunhofer IIS)، خاطرنشان می‌کند: «در عین حال، برای چنین رویکردهایی در همه‌ی سطوح فقدان استاندارد وجود دارد. برنامه‌نویسان می‌خواهند که در چارچوب‌ها (Frameworks) برنامه‌نویسی کنند؛ به این معنی که در سطح بالا بر اساس کتابخانه‌ها (Libraries) (مانند Tensorflow برای برنامه‌نویسی هوش مصنوعی) برنامه‌نویسی کنند. نرم‌افزارها نیز در سطوح انتزاعی بسیار مختلفی برنامه‌نویسی می‌شوند (برنامه‌نویسی راه‌اندازها (Drivers) در سطح پایین، کتابخانه‌ها در سطح اول، کتابخانه‌های در سطح بالاتر بر اساس قبلی‌ها، برنامه‌نویسی نرم‌افزارهای کاربردی (Applications)). شاید این امکان وجود داشته باشد که محاسبات داخل حافظه‌ای را در سطح راه‌اندازها کپسوله کرد، اما تصور ما این است که امکان شناسایی تمام پتانسیل‌های این رویکرد از این طریق مقدور نباشد. تنها در صورتی بهره‌گیری از پتانسیل کامل امکان‌پذیر خواهد بود که شما به این مکانیزم از طریق تمام سطوح برنامه‌نویسی دسترسی داشته باشید، چرا که در آن صورت الگوریتم نرم‌افزار کاربردی قادر خواهد بود به طور مستقیم از محاسبات شتاب‌داده‌شده بر روی داده‌ها استفاده نماید. اما، دسترسی از طریق تمام سطوح برنامه‌نویسی به آن، به این معنی است که وجود استانداردها در همه‌ی سطوح برنامه‌نویسی، برای دستیابی به سازگاری میان کتابخانه‌های مختلف یک الزام است. برای تحقق این نوع برنامه‌نویسی در سطح چارچوب، ابتدا این موضوع باید در تعداد زیادی سطوح پایین‌تر تحقق یابد. اگر برای هر معماری لازم باشد کار از نو انجام شود، وقت‌گیر و نیروبر خواهد بود. بنابراین باید برای هر سطح مانند سطح سخت‌افزار، نرم‌افزار و راه‌انداز استاندارد آن ایجاد شود.»

در بسیاری از پیاده‌سازی‌های CSD، به جای استفاده از یک پردازنده بلادرنگ در داخل درایو، از یک پردازنده کاربردی (Applications processor) بهره گرفته می‌شود. آقای وایتهد از Siemens EDA خاطرنشان می‌کند: «پردازنده‌های کاربردی نیازمندی و روش به‌کارگیری کاملاً متفاوتی نسبت به پردازنده‌های بلادرنگ دارند. آنها کاملاً متفاوت هستند. برخی ارائه‌دهندگان پردازنده‌ها مانند Arm، در پاسخ به وجود این اختلاف‌ها، به طور اختصاصی پردازنده‌هایی با چندین هسته برای ذخیره‌سازی محاسباتی تولید کرده‌اند، که در آنها هر دو عنصر پردازنده‌های بلادرنگ و پردازنده‌های کاربردی ترکیب شده‌اند، و در نتیجه می‌توان پردازش را در هر دو وضعیت انجام داد.»

طبق گفته وایتهد، بیشتر مهندسینی که در خصوص پردازنده‌های بلادرنگ، SSDها و کنترل‌گرها تجربه دارند، به نحوه کارکرد این نوع CPUها نیز آشنا هستند. «همراه با یک پردازنده Arm، شما یک سفت‌افزار (Firmware) دارید که روی آن اجرا می‌شود، خواندن‌ها و نوشتن‌ها و زباله‌روبی‌ها و تمام آن چیزهایی را که بر روی یک SSD لازم دارید، انجام می‌دهد؛ اما اکنون شما یک پشته کامل لینوکس (Linux) نیز در داخل دستگاه تحت آزمون (DUT) خود اضافه کرده‌اید، و این پیامدهایی در طراحی و نیز در تصدیق به همراه خواهد داشت؛ چرا که شما الان دیگر یک سامانه کاملاً برپاشده در درایو خود دارید. در نظر یک کامپیوتر می‌آید، و این به معنی چیزهای مختلفی است. هنوز باید در ظاهر از منظر میزبان (Host) خود شبیه یک SSD باشد که بتوانید آن را در داخلش نصب کنید. هنوز می‌گوید که «من یک درایو هستم، و می‌توانم تمام نیازهای ذخیره‌سازی شما را پاسخ دهم.» اما اگر این سامانه آگاه باشد که یک سامانه لینوکس نیز در داخل خود دارد، می‌توانید به داخل آن سامانه SSH بزنید، و بعد دقیقاً داخل آن درایو مشابه یک سرور بی‌سر (Headless) به نظر خواهد رسید.»

هر زمان که این موضوع را مد نظر قرار دهیم که بزرگ‌ترین کشمکش ما با عملکرد و دیرکرد است، مجموعه کاملاً متفاوتی از استانداردهای تصدیق مطرح می‌شوند.

او می‌گوید: «اکنون شما یک پردازنده کاربردی را داخل درایو خود اضافه کرده‌اید. چگونه آن را اندازه‌گیری می‌کنید؟ اگر در حال کار باشد و شما لازم داشته باشید آن را در وضعیت بلادرنگ، راه‌اندازی مجدد (Reboot) نمایید، چه اتفاقی رخ می‌دهد؟ حالا شما دیگر واقعاً متغیرهای دیرکرد خود را به هم ریخته‌اید و ارقام کاملاً کج و معوج دریافت خواهید کرد. شما باید پیش‌بینی این وضعیت را نیز بکنید.»

او در عنوان کردن این موضوع تنها نیست. وردمولر از Arm می‌گوید: «اساساً، اگر به سراغ ایده لینوکس بروید، دیگر تفاوتی به غیر از میزان ممکن محاسبات وجود نخواهد داشت. اگر به عنوان نمونه به یک کارت شبکه هوشمند Arm نگاه کنید، یا یک سرور مبتنی بر Arm، یا یک سرور Intel Xeon، چون بارهای کاری بسیار زیادی دارد و در حال مدیریت خیلی از امور است، معمولاً محاسبات بسیار سنگینی در آن انجام می‌شود. این می‌تواند برای برخی از بارهای کاری رویکرد مناسبی باشد. البته در مواردی دیگر، واقعاً مزیت‌هایی در انجام محاسبات توزیع‌شده به شکل محلی وجود دارند؛ وقتی به جای آنکه همه‌ی کارها برای یک محاسبه واقعاً سنگین جابجا شوند که مقدار زیادی نیرو صرف خواهد شد، هر درایو تکه‌های کوچکی از آن کارها را انجام می‌دهد. باید توجه داشت که یک محدودیت مشخص برای مصرف نیرو وجود دارد؛ معمولاً حداکثر تا ۲۵ وات برای هر شکاف PCIe وجود دارد که بیش از ۲۰ وات آن برای نیرو دادن به NAND و RAM در دستگاه مصرف می‌شود. بنابراین شما تنها 5 وات برای تمام چیزهای دیگر در اختیار دارید. به نظر کم می‌آید، اما همچنان با این سطح از محاسبات نیز می‌توانید کارهای زیادی انجام دهید.»

نتیجه‌گیری

با انتقال بیشتر محاسبات به حافظه، سایر قسمت‌های معماری محاسبات نیز در حال تغییر هستند. سرینیواسان از Xilinx می‌گوید: «قبلاً، تعریف قدیمی ما از سرور این بود که یک پردازنده مرکزی در داخلش هست که مسؤولیت تمام اتفاقات را بر عهده دارد. تمام پردازش‌های کاربردی، تمام داده‌ها توسط CPU انجام می‌شوند و بقیه تجهیزات جانبی تقریباً تنها مسؤول ورود داده‌ها به پردازنده، ذخیره‌سازی آنها یا اجازه به حافظه چرک‌نویس برای دسترسی به داده‌ها به هر دلیل محاسباتی میانی، هستند.»

او می‌گوید: «اکنون، همین‌طور که این صنعت به آرامی شروع به تکامل می‌کند، یک تقسیم مسؤولیت نیز ایجاد شده‌است. از اَبَرمقیاس‌های بزرگ گرفته تا سازمان‌های کوچک‌تر، همه‌ی آنها این واقعیت را پذیرفته‌اند که تمام بارهای کاری به یک شکل ایجاد نمی‌شوند. شما می‌خواهید قادر باشید از CPU برای کار صحیح، از GPUها برای کار صحیح، و از FPGAها برای آن کاری که توانایی انجامش را دارند، استفاده کنید. به همین منظور است که مفاهیم ذخیره‌سازی محاسباتی، در سطح درایو، پردازنده یا آرایه اعمال خواهند شد.»

منتشر شده در  وب‌سایت Semiconductor Engineering

۲۹ مارس ۲۰۲۱ – توسط: آن فورا موچلر

برگردان توسط حامد معین‌فر

در شرکت مهندسین فناور پندار آریا – پنداریا