بایگانی برچسب برای: پندار آریا

۵ کاری که نمی‌توان در مرکز داده به صورت خودکار انجام داد

عنوان اصلی مقاله: Five Things You Can’t Automate In Your Data Center
تاریخ انتشار و نویسنده: By Christopher Tozzi, Jan 17, 2024
Data Center Knowledgeوب‌سایت منتشر کننده: Data Center Knowledge
 لینک اصلی مقاله

اتوماسیون مراکز داده یک موضوع داغ است، اما هنوز برخی از حوزه‌های کلیدی نیازمند دخالت انسان‌ها هستند. در این مقاله خواهید دید که در حال حاضر کدام عملیات در مراکز داده در برابر اتوماسیون مقاومت دارند.

آلامی (Alami)

این راحت است که فرض نماییم اتوماسیون یا خودکارسازی در مراکز داده و فراتر از آن، دیگر هیچ مرزی ندارد. در دنیایی که به نظر می‌رسد هوش مصنوعی طیف بی‌حد و حصری از فرصت‌ها را برای بهبود عملیات مراکز داده و شبکه‌ها در اختیار ما گذاشته است و صنعت فناوری اطلاعات نیز این مفهوم را به طور کلی پذیرفته است که گردش‌های کاری به قدری می‌توانند خودکار شوند که ما به وضعیت نوآپس (NoOps) برسیم، شاید این‌گونه وانمود شود که دیگر چیزی در مراکز داده وجود ندارد که نتوانیم آن را خودکار کنیم.

با این حال، واقعیت بسیار جدی‌تر است. در حالی که فناوری‌های جدید پتانسیل زیادی برای خودکارسازی مراکز داده در بسیاری از زمینه‌ها ایجاد کرده‌اند، جنبه‌های کلیدی عملیات در مراکز داده تا آینده‌ی نزدیک غیرقابل خودکارسازی خواهند بود.

در واقع، ماهیت فیزیکی مراکز داده ایجاب می‌کند که از برخی جهات، خودکارسازی تأسیسات و تجهیزات مرکز داده حتّی بیشتر از سایر انواع زیرساخت‌ها و محیط‌های فناوری اطلاعات چالش‌برانگیز است، از جمله سکوهای ابری عمومی، که در آن همه‌ی آن چیزی که کاربران با آن در تعامل هستند، در نرم‌افزار تعریف می‌شود و بنابراین به راحتی با استفاده از راه‌حل‌های مبتنی بر نرم‌افزار، خودکار می‌شوند.

برای اثبات این موضوع، در اینجا نگاهی به پنج جنبه از مراکز داده یا عملیات مرکز داده می‌اندازیم که هیچ‌کس نباید این انتظار را داشته باشد که به این زودی‌ها به طور کامل خودکار شوند.

  1. استقرار سرورها

استقرار سرور در ابرهای عمومی، به سادگی و با استفاده از برخی از الگوهای «زیرساخت به شکل کد» برای تأمین منابع ابری به صورت خودکار انجام می‌شود.

با این حال، در یک مرکز داده امکان پیاده‌سازی این نوع خودکارسازی وجود ندارد، زیرا سرورهایی که شما مستقر می‌کنید سخت‌افزار فیزیکی هستند. شخصی باید سرورها را نصب کند، آنها را به کابل‌های برق و شبکه متصل نماید، از سرمایش مناسب آنها اطمینان حاصل کند و غیره.

به شکل نظری، ربات‌ها قادر هستند بسیاری از کارهای استقرار سرورها در مراکز داده را به صورت خودکار انجام دهند. با این حال، برای انجام این کار به یک شکل مقرون به صرفه با استفاده از ربات‌ها، باید در مقیاس وسیع عمل کرد. ضمن آنکه شما برای خودکارسازی چنین عملیاتی بدون کمک دست انسان، به استقرار سرورهایی نیاز دارید که به اندازه‌ی کافی با یکدیگر همگون شده و کار با آنها قابل پیش‌بینی باشد. امروزه، بیشتر موارد استقرار سرورها چنین معیاری را برآورده نمی‌کنند.

حتماً دلیلی وجود دارد که ما هنوز تعداد کمی رُبات در مراکز داده می‌بینیم، در حالی که حداقل یک دهه است که در خصوص پتانسیل اتوماسیون رباتیک مراکز داده صحبت در میان است: در بیشتر موارد چنین کاری ممکن نیست. انتظار می‌رود استقرار سرورها حداقل برای یک آینده‌ی قابل پیش‌بینی دستی باقی بماند.

  1. تعمیر و نگهداری سخت‌افزار

به طریقی مشابه، نگهداری سخت‌افزار سرورها پس از استقرار در داخل یک مرکز داده، وظیفه‌ای نیست که در اکثر موارد قابلیت خودکارسازی داشته باشد. تعویض دیسک‌های خراب، جایگزینی منابع تغذیه و کابل‌های فرسوده و به‌روزرسانی کارت‌های شبکه، رویه‌هایی معمول در اکثر مراکز داده هستند و تنها راه انجام آن‌ها استفاده از نیروهای فنی انسانی است.

  1. نصب و نگهداری تهویه

سامانه‌های سرمایش و چرخش هوا که از تجهیزات فناوری اطلاعات در برابر گرمای بیش از حد محافظت می‌کنند، جزء ضروری هر مرکز داده هستند؛ و همانند سرورها، سامانه‌های خنک‌کننده نیز شامل اجزای فیزیکی‌ای هستند که نیاز به نگهداری توسط انسان زنده دارند.

حسگرها و سامانه‌های پایش تهویه می‌توانند از راه دور به خودکارسازی برخی از فرایندهای مرتبط با مدیریت تهویه کمک کنند؛ اما در نهایت، تعمیر و نگهداری تهویه کاری نیست که بتوان به راحتی آن را در مراکز داده خودکار نمود.

  1. امنیت فیزیکی

امنیت فیزیکی مراکز داده حوزه‌ی دیگری است که در آن سامانه‌های پایش قادر هستند به خودکارسازی برخی از وظایف مربوط به آن کمک کنند، در عین حالی که همچنان مداخله‌ی دستی انسانی برای پاسخ به مشکلات عمده ضروری است.

شما می‌توانید از حسگرها برای ردیابی حرکت افراد در مرکز داده استفاده کنید و یا دستگاه‌های احراز هویت زیست‌سنجی یا بیومتریک (Biometric) را برای کنترل خودکار دسترسی فیزیکی به مرکز داده به کار بگیرید. با این حال، اگر یک مزاحم شناسایی شود، یا اگر سامانه‌های کنترل دسترسی خودکار به درستی کار نکردند، آنگاه به تعدادی نیروی امنیتی برای پاسخ به آن رویداد نیاز خواهید داشت.

  1. بازیابی از فاجعه

در برخی موارد، روال‌های بازیابی از فاجعه (Disaster recovery) را می‌توان خودکار کرد. در واقع، خودکارسازی بازیابی از فاجعه برای صرفه‌جویی در زمان هنگام بازیابی داده‌ها یا برنامه‌های کاربردی پس از وقوع خرابی، یک امر حیاتی است.

با این حال، تنها در صورتی می‌توانید بازیابی از فاجعه را به صورت خودکار انجام دهید که دارایی‌هایی که نیازمند بازیابی هستند از نوع نرم‌افزاری باشند، ضمن آنکه باید زیرساخت کافی برای میزبانی از دارایی‌های بازیابی‌شده در دسترس داشته باشید.

اگر بازیابی مستلزم استقرار سخت‌افزار جدید یا جایگزینی اجزای خراب باشد (که چنانچه مرکز داده دچار یک فاجعه‌ی طبیعی شده‌باشد و در آن برخی از سیستم‌ها از کار افتاده باشند، احتمالاً همین‌طور خواهد بود)، باید به نیروی انسانی برای انجام دستی کارها تکیه نمایید.

محدودیت‌های خودکارسازی مراکز داده

دلایل خوب بسیار زیادی وجود دارند تا نسبت به خودکارسازی عملیات در مراکز داده تا آخرین حد ممکن اقدام نماییم. اما بسیاری از جنبه‌های مدیریتی در مراکز داده، مناسب خودکارسازی  نیستند.

حتّی در عصر هوش مصنوعی مولّد و فناوری‌های رباتیک، تصوّر حذ ف کامل انسان‌ها از مراکز داده به این زودی‌ها دشوار به نظر می‌رسد.

منتشر شده در وب‌سایت دیتا سنتر نالج Data Center Knowledge
توسط کریستوفر توزی (Christopher Tozzi)، ۱۷ ژانویه ۲۰۲۴
برگردان توسط حامد معین‌فر
در شرکت مهندسین فناور پندار آریا – پنداریا

خنک‌سازی مستقیم تراشه‌ها: هر آنچه که بهره‌برداران مرکز داده باید بدانند

عنوان اصلی مقاله: Direct-to-Chip Cooling: Everything Data Center Operators Should Know
تاریخ انتشار و نویسنده: By Christopher Tozzi, Nov 27, 2023
Data Center Knowledgeوب‌سایت منتشر کننده: Data Center Knowledge
 لینک اصلی مقاله

خنک‌سازی مستقیم تراشه‌ها در حال تبدیل‌شدن به یک راهبرد سرمایشی جذاب در مراکز داده است.

ناتاپُل شریتُنگکوم (Nattapol Sritongcom) / آلامی (Alami)

آن دسته از سامانه‌های خنک‌کننده که هسته‌ی مرکزی تولید حرارت را هدف قرار می‌دهند، قادر هستند گرما را به شکل مؤثّرتری دفع نمایند. به همین دلیل است که خنک‌سازی مستقیم تراشه‌ها یا خنک‌سازی مستقیم بر تراشه (Direct-to-chip cooling) در حال تبدیل‌شدن به یک راهبرد سرمایشی جذّاب در مراکز داده هستند.

هرچند که خنک‌کننده‌های مستقیم بر تراشه قادرند داغ‌ترین اجزای یک سرور را هدف قرار دهند، با این حال باید توجه داشت که هزینه‌ی بالا و خطر خرابی این نوع سامانه‌ها به این معنی است که این روش نمی‌تواند همواره یک راه‌حل مناسب تلقّی شود.

برای آشنایی با روش «خنک‌سازی صفحه سرد مستقیم بر تراشه (Direct-to-chip cold plate cooling)» و اینکه چگونه کار می‌کند و چرا ممکن است روش مناسبی برای سرمایش سرورهای مرکز داده شما باشد یا نباشد، به خواندن این متن ادامه دهید.

خنک‌سازی صفحه سرد مستقیم بر تراشه چیست؟

خنک‌سازی صفحه سرد مستقیم بر تراشه، عملِ به گردش درآوردن مایع خنک‌کننده از میان یک صفحه (یا همان «صفحه‌ی سرد») است که در تماس مستقیم با منابع اصلی حرارت، از جمله واحدهای پردازنده‌ی مرکزی (CPUs) قرار گرفته‌است. مایع، گرما را از اجزاء دریافت کرده و به طور مؤثر تجهیزات را خنک می‌کند.

از آنجایی که روش خنک‌سازی مستقیم تراشه‌ها به سامانه‌های سرمایشی این اجازه را می‌دهد تا قسمت‌هایی از تجهیزات فناوری اطلاعات (IT) را که بیشترین گرما را تولید می‌کنند هدف قرار دهند، روشی سریع‌تر و کارآمدتر برای پیشگیری از گرم‌شدن بیش از حد دستگاه‌ها است.

خنک‌کننده‌ی مستقیم بر تراشه چگونه کار می‌کند؟

سامانه‌های خنک‌کننده‌ی مستقیم بر تراشه به چندین اجزاء نیاز دارند:

– مایع خنک‌کننده، که معمولاً یک سیّال دی‌الکتریک (Dielectric fluid) می‌باشد و برای کاربرد خنک‌سازی مستقیم بر تراشه شخصی‌سازی شده‌است.

– صفحه‌ی سرد، که مایع بتواند از داخل آن عبور کند.

– پمپ، که مایع را در مدار به حرکت در می‌آورد.

– ماده‌ی رابط حرارتی، که به انتقال گرما از منبع به صفحه‌ی سرد کمک می‌کند.

این اجزاء در کنار هم به روشی نسبتاً ساده کار می‌کنند؛ حرارت حاصل از پردازنده‌ها و یا سایر منابع گرمایی به صفحه‌ی سرد منتقل شده و سپس توسط مایعی که در گردش است از آن ناحیه خارج می‌شود.

مزایای خنک‌سازی مستقیم بر تراشه

مزیت اصلی خنک‌سازی مستقیم تراشه‌ها این است که گرما را سریع‌تر خارج کرده و انرژی کمتری نسبت به سامانه‌های خنک‌کننده‌ی سنّتی که در طراحی‌های مرکز داده دیده می‌شوند، مصرف می‌کند؛ مانند سامانه‌هایی که هوای سرد را از میان رَک‌های سرور به گردش در می‌آورند.

سامانه‌های سنّتی سرمایش هوا، به جای هدف قرار دادن دقیق منابع حرارتی، هوای سرد را به سمت کل یک مجموعه از تجهیزات پرتاب می‌کنند. بخش زیادی از این هوا از روی اجزایی که منابع اصلی تولید گرما نیستند، عبور می‌کند، مانند رابط‌های شبکه (Network interfaces) و بخش‌های بیرونی بُردهای‌اصلی (Mainboards)، و این بدان معنا است که هوای خنک به طور مؤثّری در حال هدر رفتن است.

در مقابل، سامانه‌های خنک‌کننده‌ی مستقیم بر تراشه قادر هستند مشخصاً آن اجزای خاصی که گرما تولید می‌کنند را خنک نمایند. در نتیجه گرمای بیشتری را با انرژی کمتری دفع می‌نمایند که این از منظر پایدارپذیری (Sustainability) (چرا که مصرف انرژی کمتر، خروجی کربن مرکز داده را کاهش می‌دهد) و همچنین از دیدگاه اطمینان‌پذیری (Reliability)، یک برد محسوب می‌شود. هر چه سامانه‌های سرمایشی در دفع گرما بهتر عمل کنند، خطر خرابی‌های فناوری اطلاعات با ریشه‌ی گرمای بیش از حد نیز کاهش می‌یابد.

چالش‌های خنک‌سازی مستقیم بر تراشه

در حالی که خنک‌سازی مستقیم بر تراشه مزایای متعددی به همراه دارد، این فناوری با چالش‌ها و محدودیت‌هایی نیز روبرو است:

هزینه: پیاده‌سازی و نگهداری سامانه‌های هوای سرد تقریباً همیشه هزینه‌ی کمتری نسبت به سامانه‌های مستقیم بر تراشه دارند؛ چرا که نیازمند قطعات گران‌تر و پیچیده‌تر است.

خطر نشت: این احتمال وجود دارد که سیّالات داخل سامانه‌های مستقیم بر تراشه نشت پیدا کنند. نشت معمولاً تهدیدی بزرگ برای تجهیزات فناوری اطلاعات محسوب نمی‌شود، چرا که این سیّالات رسانا نیستند. با این وجود هر گونه نشت، حداقل موجب از کار افتادن سامانه‌ی خنک‌کننده و بروز گرمای بیش از حد می‌شود. آن دسته از بهره‌برداران مرکز داده که نگران خطرات ناشی از نشت سیّال هستند ممکن است خنک‌کننده‌های غوطه‌ور (Immersion cooling) را انتخاب نمایند؛ از آنجا که در چنین سامانه‌هایی دیگر هیچ سیّالی در صفحات کوچک و شکننده در جریان نیست، کمتر مستعد نشتی هستند.

اثرات زیست‌محیطی: سیّالاتی که در مدارهای سامانه‌های مستقیم بر تراشه جریان دارند، اغلب با محیط زیست سازگار نیستند؛ لذا در ارتباط با این سامانه‌ها همواره مخاطراتی از نوع آلودگی وجود دارند.

اجزای خنک‌نشده: از آنجایی که سامانه‌های مستقیم بر تراشه فقط منابع اصلی گرما را خنک می‌کنند، این خطر وجود دارد که سایر بخش‌های سرور، مانند دیسک‌های سخت، بیش از حد داغ شوند. این دلیل دیگری است که چرا برخی از بهره‌برداران مرکز داده تمایل به به‌کارگیری خنک‌کننده‌های غوطه‌ور که تمام قسمت‌های یک سامانه را خنک می‌کنند، دارند.

اگر نگران هزینه‌های پیش‌راه‌اندازی هستید، سامانه‌های سنّتی‌تر خنک‌کننده‌ی هوا راه‌حل بهتری نسبت به خنک‌کننده‌های مستقیم بر تراشه هستند. البته توجه داشته باشید که در دراز مدت، خنک‌سازی مستقیم تراشه‌ها می‌تواند به دلیل مصرف انرژی کمتر، نسبت به خنک‌سازی‌ هوا بیشتر مقرون‌به‌صرفه باشد. البته این نکته نیز وجود دارد که سامانه‌های خنک‌کننده‌ی هوا مستعد مخاطرات ناشی از نشتی نیستند.

در عین حال، خنک‌کننده‌های غوطه‌ور به طور کلی مخاطرات کمتری دارند، هرچند که معمولاً اجرای آنها گران‌تر از خنک‌کننده‌های مستقیم بر تراشه است. البته ممکن است برای زیرساخت‌های مقیاس بزرگ (یعنی آنهایی که شامل صدها یا هزاران سرور هستند)، هزینه‌ی نصب خنک‌کننده‌های غوطه‌ور تقریباً مشابه یا حتی کمتر از خنک‌کننده‌های مستقیم بر تراشه که برای راه‌اندازی‌های مقیاس کوچک‌تر مناسب هستند، باشد.

از کجا می‌توان راه‌حل‌های خنک‌سازی مستقیم بر تراشه یافت

خنک‌سازی مستقیم بر تراشه وارد دوره‌ی اوج خود شده است و یک مؤلفه‌ی اصلی از بازار در حال رشد خنک‌کننده‌های مبتنی بر مایع در مراکز داده که شامل سامانه‌های خنک‌کننده‌ی غوطه‌ور نیز می‌شود، می‌باشد. در حال حاضر تعدادی از سازندگان، از جمله برخی از استارت‌آپ‌هایی که در گذشته آنها را پوشش داده‌ایم، راه‌حل‌ها و محصولاتی در این دسته ارائه می‌دهند.

با این وجود، از آنجا که سامانه‌های خنک‌کننده‌ی صفحه سرد مستقیم بر تراشه باید برای انواع خاصی از تجهیزات که از آنها پشتیبانی می‌کنند طراحی شوند، این امکان وجود ندارد که بیرون بروید و این محصول را از قفسه‌ی یک فروشگاه بخرید. شما نیاز دارید با فروشنده‌ای کار کنید که قادر است یک سامانه را بر اساس مشخصات خاص مرکز داده و سرورهای مورد نظر شما طراحی نماید.

منتشر شده در وب‌سایت دیتا سنتر نالج Data Center Knowledge
توسط کریستوفر توزی (Christopher Tozzi)، ۲۷ نوامبر ۲۰۲۳
برگردان توسط حامد معین‌فر
در شرکت مهندسین فناور پندار آریا – پنداریا

چگونه مدیران پروژه قادر خواهند بود بهتر از موانع عبور کنند

چگونه مدیران پروژه قادر خواهند بود بهتر از موانع عبور کنند

عنوان اصلی مقاله: How Project Managers Can Better Navigate Setbacks
تاریخ انتشار و نویسنده: by Amy Shoenthal, October 30, 2023
Harvard Business Reviewوب‌سایت منتشر کننده: Harvard Business Review
 لینک اصلی مقاله

هنریک سورنسِن (Henrik Sorensen) / گِتی ایمِجز (Getty Images)

هنریک سورنسِن (Henrik Sorensen) / گِتی ایمِجز (Getty Images)

خلاصه: تجربه‌ی موانع در پروژه‌ها یک امر رایج است، امّا مدیران پروژه چهار ابزار کلیدی در اختیار دارند تا بتوانند دلیل وقوع آنها را درک کرده و به تیم‌های خود کمک کنند تا از آنها عبور نمایند. ابتدا، درک علوم اعصاب (neuroscience) پشت موانع تا بتوان دیگران را به یادگیری و رشد تشویق کرد. دوم، اذعان آشکارا به وجود موانع تا بتوان از وقوع پس‌رفت (Backsliding) جلوگیری نمود. سوم، اتّخاذ یک ذهنیت رشد (Growth mindset) تا بتوان به دیگران کمک کرد که به جای گیرکردن در حالت خلبان خودکار، برای بهبود اوضاع تلاش کنند؛ و چهارم، برنامه‌ریزی [مبتنی بر] سناریو به نحوی که گزینه‌های روشنی برای حرکت رو به جلو در اختیار قرار داشته‌باشند.

تقریباً تمام نیروهای کار در برخی مقاطع حداقل یک مانع را تجربه کرده‌اند. بسیاری از افراد با مفاهیمی چون «یادگیری از اشتباهات»، «رشد پس از ضربه» و «موفقیت پس از شکست» آشنا هستند. امّا موانع همیشه از جنس اشتباه، ضربه یا شکست نیستند. «مانع» در لغت به معنای یک عقب‌گرد یا «نقطه‌ی بررسی پیشرفت» تعریف می‌شود. این زمانی است که مسیر رو به جلو ناپدید می‌شود؛ مانند یک ضربه‌ی غیرمنتظره‌ی رو به عقب، بازگشت به خط شروع و نیاز اجباری به تغییر مسیر.

مدیران پروژه (PMs) با این تجربه به خوبی آشنا هستند. شاید یک مشتری یا یک ذی‌نفع به یک‌باره تصمیم بگیرد که از نتیجه‌ی پروژه راضی نیست و در نتیجه لازم شود که کل تیم دوباره توجیه شوند. یا آزمون یک محصول، مسائل غیرمنتظره‌ای را نمایان سازد و با وجود سال‌ها کار ،یک تیم را مجبور کند تا به تخته‌ی طراحی باز گردند. یا فردی دقیقاً در یک نقطه‌ی بحرانی قبل از اتمام پروژه استعفا دهد؛ هدف دوباره جابجا می‌شود.

موانع لذّت‌بخش نیستند. با این حال، اغلب، آنها تبدیل به کاتالیزوری برای رشد، تغییر و نوآوری می‌شوند.

بسیاری از رهبران کسب‌وکار که من در دهه‌ی گذشته با آنها مصاحبه کرده‌ام، یک شکست بزرگ در مسیر شغلی خود را به عنوان آن چیزی که منجر به بروز ایده‌های درخشان و موفق‌ترین سرمایه‌گذاری‌های آنها شده‌است، ذکر می‌کنند. کتاب من، چرخه‌ی موانع (The Setback Cycle)، چنین داستان‌هایی را به اشتراک می‌گذارد، همراه با یک چارچوب مبتنی بر شواهد که افراد و تیم‌ها را در خصوص نحوه‌ی عبور از موانع راهنمایی می‌کند.

در اینجا به چهار رویکرد اصلی استخراج‌شده از این چارچوب اشاره می‌کنیم که مدیران پروژه را قادر می‌سازند راه عبور خود را از موانعی که ناگزیر در مسیرِ رساندن یک پروژه به خط پایان قرار می‌گیرند، پیدا نمایند.

«علوم اعصاب» پشت موانع را درک کنید.

دانشمند عصب‌شناس شانتل پِرات (Chantel Prat)، این‌گونه توضیح می‌دهد که انسان‌ها پس از برخورد به یک مانع، اطلاعات جدیدی جذب می‌کنند که عقده‌های قاعده‌ای مغز (Basal Ganglia) را برنامه‌ریزی می‌کنند؛ همان بخشی از مغز ما که به تجربیات گذشته برای دیکته‌کردن اقدامات بعدی متّکی است. عقده‌های قاعده‌ای به ما در تصمیم‌گیری آگاهانه، ایجاد انگیزه و تحریک به یادگیری کمک می‌کنند.

علاوه بر این، زمانی که ما به موانع برخورد می‌کنیم، مغز ما تحت شیب کاهشی دوپامین قرار می‌گیرد. خبر خوب این است که دوپامین یک القاءکننده‌ی انعطاف‌پذیری (Plasticity Inducer) است؛ مشابه همان روشی که ورزش عضلات ما را تقویت می‌کند، موانع نیز چابکی و قدرت مغز ما را تیز می‌کند. همین افت دوپامین دلیل اصلی یادگیری ما از این تجربیات ناخوشایند است.

تمام این‌ها می‌توانند خلاقیت و نوآوری را در مسیر رو به جلو تقویت نمایند، امّا تنها به شرطی که ما انگیزه‌ی انجام این کار را داشته باشیم.

پِرات می گوید: «بسیاری از مغزها بیشتر برای یادگیری از شکست‌ها سیم‌کشی شده‌اند تا یادگیری از موفقیت‌ها. امّا اینکه چقدر به یادگیری تمایل داشته باشید به این بستگی دارد که به چه میزان مغز شما ممکن است برای اجتناب از شکست‌ها تلاش کند. برخی از مردم بیشتر تمایل دارند که از چیزهای بد اجتناب نمایند تا به سمت چیزهای خوب حرکت کنند، چرا که معمولاً نیاز به تلاش بیشتری دارد.

این موضوع اغلب در پروژه‌ها نیز اتفاق می‌افتد: هنگامی که همه چیز خوب پیش می‌رود و یا طبق برنامه است، تیم‌ها انگیزه‌ی کمتری برای آزمایش یا امتحان چیزهای جدید دارند. امّا این می‌تواند منجر به خستگی، عدم خلاقیت و شکل‌گیری تیمی شود که در حالت خلبان خودکار کار می‌کند، که لزوماً همیشه منجر به بهینه‌ترین نتیجه‌ی ممکن نمی‌شود. همان‌طور که پِرات اشاره می‌کند، هر چه به موانع بیشتری برخورد نماییم، سیم‌کشی‌ها و برنامه‌ریزی‌های مجدد بیشتری در مغز ما اتفاق می‌افتد؛ به طور کلی این یک نقطه‌ی تولّد برای نوآوری و خلاقیت است.

مدیران پروژه می‌توانند برای تقویت این فرایند دست به کار شوند، چرا که آنها مجهّز به تشخیص این موانع در سریع‌ترین زمان ممکن هستند. این امر تیم را قادر می‌سازد تا مسیر خود را تغییر داده و به آنها اجازه می‌دهد تا قادر به فراگیری و جذب ایده‌های جدید در مورد چگونگی حرکت به جلو شوند.

اذعان نمایید آنچه که تیم شما در حال تجربه‌ی آن می‌باشد، در واقع یک مانع است.

نادیده‌گرفتن علائم هشداردهنده‌ای که نشان می‌دهند یک پروژه با یک مانع بزرگ مواجه شده‌است، آسان است. اغلب، اصرار بر ادامه در یک خط سیر رو به جلو آسان‌تر از تغییر جهت در آن مسیر به نظر می‌رسد، به ویژه پس از آنکه تلاش و انرژی قابل توجهی به خرج رفته باشد. امّا مرحله‌ی اول در چرخه‌ی موانع، «ایجاد» است؛ چیزی که ممکن است کمتر از آنچه فکر می‌کنید بصری باشد.

در بیشر مواقع، کارکنان آن‌قدر مصمّم به پایبندی به یک موعد مقرّر (Deadline) هستند که با قدرت به جلو حرکت می‌کنند، حتّی اگر در اعماق وجود خود آگاه باشند که سرنوشت آن راه، شکست است. اعتراف آشکار به این که تیم شما با یک مانع مواجه شده‌است، جلوی تیم را در ادامه در این مسیر محکوم به شکست می‌گیرد. تغییر زودهنگام مسیر بهترین راه برای بازگرداندن همه چیز بر روی ریل صحیح است.

کایل مک‌ایوِن (Kyle McEwen)، که بیش از یک دهه در مسؤولیت مدیر پروژه کار کرده‌است و در حال حاضر نیز یک تیم از مدیران پروژه را مدیریت می‌کند، پیشنهاد می‌کند: «برپاسازی پروژه‌ها بر روی چارچوب‌های چابک (Agile) یا چابک ترکیبی (Hybrid-Agile) می‌تواند یک راه آسان برای تجویز تغییرات باشد، به ویژه در مواقعی که شما در زمان تعریف محدوده‌ی یک پروژه، حتّی به کمترین میزان دارای عدم اطمینان هستید. چنانچه به‌کارگیری رویکرد چابک برای پروژه‌ی شما مناسب نیست، خوب است که حداقل اطمینان حاصل نمایید که یک سازوکار روشن برای کنترل تغییرات در محدوده‌ی کار (SOW) به‌کار گرفته‌اید.»

با وجود سرعت بالا در بیشتر پروژه‌ها، هنوز لازم است که تیم‌ها مکث کنند، اعتراف نمایند که چه اتّفاقی رخ داده‌است، در نظر بگیرند که چرا این اتّفاق رخ داده‌است و این وضعیت را به طور عینی ارزیابی نمایند.

مک‌ایوِن می‌گوید: « برای عبور از موانع به هدایت تیمِ خود بپردازید، به جای آنکه خودتان برای حل آنها تلاش کنید. یک راه مؤثر برای حمایت از تیم، رهبری یک جلسه‌ی رِترو (retro) یا معطوف به گذشته (Retroactive) است. در این جلسات، تیم تشویق می‌شود تا در مورد آنچه که به خوبی پیش رفته‌است و آنچه که می‌توانست بهتر باشد، بحث کند. این باعث تشویق به اعتماد و رفاقت بیشتر می‌شود و به ایجاد مهارت‌های حل جمعی مسأله کمک می‌کند. ایجاد فضایی که گروه بتواند به تقویت خود بپردازد، موجب افزایش تاب‌آوری شده و به آنها کمک می‌کند تا در زمان برخورد به موانع در آینده، سریع‌تر خود را باز بیابد.»

یک ذهنیت رشد را اتّخاذ کنید.

به گفته‌ی روان‌شناس، کارول دوئِک (Carol Dweck)، ذهنیت رشد (Growth mindset) بر مبنای «این باور است که ویژگی‌های اساسی شما آن چیزهایی هستند که قادر هستید از طریق تلاش، اتّخاذ راهبرد و با کمک دیگران پرورش دهید.»

این طرز فکر شما را تشویق می‌کند تا باور نمایید که قادر هستید در چیزهایی بهتر شوید، حتّی اگر به معنای تلاش، تِلوتِلوخوردن و یادگیری باشد. یک معیار موفقیت در هنگام اتّخاذ ذهنیت رشد این است که به طور مداوم برای بهبود تلاش نمایید، نه آنکه در حالت خلبان خودکار قرار بگیرید و به پروژه‌ها به همان شیوه‌ای که همیشه انجام شده‌اند، نزدیک شوید.

با این حال، ذهنیت ثابت (Fixed mindset) همان چیزی است که ترمز بسیاری از تیم‌ها برای تغییر مناسب مسیر در هنگام برخورد با موانع می‌شود. زمانی که کسی بیش از حد بر روی برنامه‌ی اصلی متمرکز است، برای او سازگاری با تغییر شرایط می‌تواند سخت شود. برای افرادی که دارای ذهنیت ثابت هستند، برنامه همان چیزی است که هست و آنها باید مراحل را همان‌طور که در ابتدا به آنها توضیح داده شده، دنبال کنند؛ بنابراین هیچ فضایی برای کاوش، یادگیری و بهبود وجود ندارد.

برخورد به یک مانع، لحظه‌ای عالی برای بهره‌برداری از یک ذهنیت رشد است که تیم شما را قادر می‌سازد تا از فرصت یادگیری استفاده نماید. این وظیفه‌ی مدیر پروژه است که تیم را در عبور از این فرایند، زمانی که به طور جمعی از پسِ آن مانع بیرون می‌آیند و یک مسیر جدید رو به جلو می‌سازند، هدایت نماید.

مک‌ایوِن می‌گوید: «تیم پروژه یک جهان کوچک از زندگی روزمره‌ی ما است. زمانی که ما در زندگی خود از موانع رنج می‌بریم، اغلب باهوش‌تر، قوی‌تر و آگاه‌تر از قبل ظاهر می‌شویم، حتّی اگر در ابتدا برای ما مشهود نباشد. شما رهبران شگفت‌انگیز و راه‌حل‌های منحصر به فرد را در جاهایی می‌بینید که قبل از آن فقط یک مانع در آنجا وجود داشت.»

مبتنی بر سناریو برنامه بریزید.

هنگامی که یک تیم آماده است تا با یک برنامه‌ی جدید و جدول زمانی تجدیدنظرشده شروع به اقدام نماید، این مهم است که به سناریوهای مختلف فکر کرده‌باشد.

به همین دلیل است که مربّی اجرایی، روشان شاه (Roshan Shah)، آنچه را که او «رویکرد ABC» می‌نامد، برای تعیین اهداف توصیه می‌کند. او سه نسخه برنامه‌ریزی سناریویی را برای کمک به بهبود احتمال موفقیت ارائه می‌دهد:

  • برنامه‌ی A برنامه‌ی ایده‌آل است، آن نتیجه‌ی ایده‌آلی که می‌خواهید تجربه‌اش کنید.
  • برنامه‌ی B برنامه‌ی پشتیبان است. اگر شما نتوانید به برنامه‌ی A دست یابید، چگونه قادر خواهید بود مجدداً بر دست‌یابی به چیزی تمرکز نمایید که در دسترس‌تر بوده و هنوز هم ارزشمند است؟
  • برنامه‌ی C تورِ نجات (یا پشتیبان برای پشتیبان) است. چنانچه نه طرح A و نه طرح B به دست نیامدند، این برنامه دوباره تمرکز را به نحوی تغییر می‌دهد که همچنان بتوانید به یک چیز معنی‌دار دست یابید.

این فعالیت به تیم‌ها کمک می‌کند که با همکاری با یکدیگر در خصوص نتایج متعدّد فکر کرده و اهداف و انتظارات واقع‌بینانه را تعیین نمایند.

شاه می‌گوید: «این به افراد کمک می‌کند تا از گیر افتادن یا سقوط در یک چرخه‌ی شَرم رهایی یابند، با عادی‌سازی این موضوع که هر کسی ممکن است گاهی اوقات نیاز به چرخش داشته باشد؛ و این اصلاً اشکالی ندارد! نباید فکر کرد که همه چیز از دست رفته‌است و یا شما شکست خورده‌اید. این به افراد می‌آموزد که سازگارتر و چابک‌تر باشند و استفاده از این روش که «به هر حال این اتفاق افتاد، حالا قدم بعدی چیست؟» را در برابر روش دور انداختن همه چیز از پنجره، یاد بگیرند.»

در یک حالت ایده‌آل، برنامه‌ریزی سناریو می‌تواند در ابتدای هر پروژه‌ای انجام شود، امّا از آنجا که ما همیشه قادر نیستیم پیش‌بینی نماییم که یک تیم با چه موانعی در آینده مواجه خواهد شد، این رویکرد می‌تواند حتی در زمان وقوع یک مانع پیش‌بینی‌نشده نیز سکوی پرش مفیدی برای کمک به تیم برای عبور از  آن باشد.

مک‌ایوِن می‌گوید: «قبل از آنکه خود را در فاز اجرایی پروژه‌ها مشغول کنید، عبور از موانع را در دل فرایندهای خود ایجاد نمایید. هنگامی که ما از یک مانع عبور کرده‌ایم و تیم‌های ما دوباره مشغول به کار پروژه می‌شوند، مهم است که مکثی کنیم و به خودمان یادآوری نماییم که موانع از ما، مدیران پروژه‌ی بهتری می‌سازند. سازگاری با موانع و یادگیری از آنها دقیقاً همان راهی است که ما در آن راه برای خود تجربه می‌سازیم.»

موانع بخش اجتناب‌ناپذیری از حرفه، رهبری و زندگی هستند. امّا اگر ما بتوانیم یاد بگیریم که نشانه‌ها را زمانی که به یک مانع برخورد می‌کنیم تشخیص دهیم، یک ذهنیت رشد را اتّخاذ نماییم، اهداف جدیدی را تعیین کنیم و با دقّت به سناریوهای مختلف برای ایجاد یک مسیر روشن رو به جلو فکر کنیم، تیم‌ها قادر خواهند بود قوی‌تر، باانگیزه‌تر و آماده‌تر از گذشته برای مقابله با هر آنچه که رخ خواهد داد، از چرخه‌ی موانع خارج شوند.

 

اِیمی شوئنثال (Amy Shoenthal)اِیمی شوئنثال (Amy Shoenthal)، مقاله‌نویس، مشاور بازاریابی و نویسنده‌ی کتاب چرخه‌ی موانع است، کتابی با این موضوع که چگونه بنیان‌گذاران و رهبران برجسته‌ی امروزی برای رسیدن به موفقیت، بر موانع غلبه می‌کنند.

منتشر شده در وب‌سایت دیتا سنتر نالج Harvard Business Review
توسط اِیمی شوئنثال (Amy Shoenthal)، ۳۰ اکتبر ۲۰۲۳
برگردان توسط حامد معین‌فر
در شرکت مهندسین فناور پندار آریا – پنداریا

بهینه‌سازی بهره‌وری مراکز داده برای کاربردهای در مقیاس پِتابایت

عنوان اصلی مقاله: Optimizing Data Center Efficiency for Peta-Scale Applications
تاریخ انتشار و نویسنده: by Wally MacDermid, Aug 12, 2023
وب‌سایت منتشر کننده: Data Center Knowledge
 لینک اصلی مقاله

بسیاری از رهبران فناوری اطلاعات این تصوّر را دارند که مقرون‌به‌صرفه‌ترین گزینه‌ی ذخیره‌سازی برای آنها درایوهای حالت جامد (SSD) در مقابل درایوهای دیسک سخت (HDD) هستند. ولی آیا واقعاً همین گونه است؟

ذخیره‌سازی

امروزه انواع برنامه‌های کاربردی در مقیاس پِتابایت از هوش مصنوعی (AI) و یادگیری ماشینی (ML) گرفته تا برنامه‌های کاربردی مالی و معماری‌های محاسباتِ در لبه (Edge)، در همه‌جا و نه فقط در سازمان‌های بزرگ وجود دارند. این برنامه‌ها در حال رساندن حجم داده‌ها به سطوح بی‌سابقه‌ای هستند و در نتیجه به حجم عظیمی از فضای ذخیره‌سازی و یک برنامه‌ریزی برای تضمین عملکرد مداوم آن بدون آنکه کل بودجه‌ی فناوری اطلاعات را مصرف کند، نیاز دارند.

بسیاری از رهبران فناوری اطلاعات تصوّر می‌کنند که مقرون‌به‌صرفه‌ترین گزینه‌ی ذخیره‌سازی برای آنها درایوهای حالت جامد (SSD) در مقابل درایوهای دیسک سخت (HDD) هستند.

ولی آیا واقعاً همین گونه است؟ همان‌طور که هر بهره‌بردار مرکز داده از آن آگاه است، برق، سرمایش و یا گرمایش، املاک و مستغلات و سایر ملاحظات مرتبط با هزینه‌ی کل مالکیت (TCO) عواملی هستند فراتر از هزینه‌های اولیه‌ی مرتبط با نرم‌افزارها و رسانه‌های ذخیره‌سازی که باید در نظر گرفته شوند.

تجزیه و تحلیل در داده‌های متعدّد از فروشندگان درایوها و دستگاه‌های ذخیره‌سازی و همچنین تحلیل‌گران و مشاوران فناوری نشان می‌دهد که درایوهای حالت جامد حتّی با وجود افزایش نوآوری‌هایی همچون فناوری‌های سلول‌های چهارسطحی (QLC) در فلَش‌ها و بهبود در تراکم ذخیره‌سازی، لزوماً همیشه دارای مزیّت نیستند.

بیایید به سه دسته از کاربردهای درایوهای دیسک سخت در مقابل درایوهای حالت جامد و ملاحظات استفاده از هر یک از آنها بپردازیم.

کاربرد شماره ۱: علوم تجزیه و تحلیل حسّاس به تأخیر

زمانی که فلَش بهترین گزینه است:

اِس‌اِس‌دی‌های از نوع فلَش اغلب برای برنامه‌هایی مناسب هستند که نیاز به دسترسی تصادفی به محموله‌های کوچکی از داده‌ها دارند. به عنوان مثال، سامانه‌های تراکنشی که درخواست‌های موردی را در برابر یک سامانه‌ی سفارش محصول کارسازی کرده و قبل از اجرای پلّه‌ی بعدی در آن زنجیره، سوابق مشتری مانند نام یا شماره‌ی تلفن را با استفاده از یک کلید جستجو می‌کنند، می‌توانند از تأخیر (Latency) کمتر در اِس‌اِس‌دی‌ها بهره‌مند شوند. این موضوع هم‌چنین برای برنامه‌های کاربردی در لَبه (Edge) که در آنها جریان‌های کوچک رویدادی حاصل از حسگرهای موجود در دستگاه‌ها یا اینترنت اشیاء (IoT)، تنها چند کیلوبایت و یا حتّی کمتر از آن را در هر سابقه از داده‌های رویدادی حمل می‌کنند، به‌ویژه زمانی که حجم‌های کاری در مقیاس بزرگ باشند، نیز صدق می‌کند.

اِس‌اِس‌دی‌های از نوع فلَش قادر هستند به دلیل داشتن تأخیر کمتر و عملکرد بالاتر ورودی/خروجی در ثانیه (IOPS) در چنین شرایطی نسبت به اِچ‌دی‌دی‌ها سودمندتر واقع شوند. در این موارد، فلَش‌های سلول چهارسطحی (QLC) که دو برابر تراکم فلَش‌های سلول سه‌سطحی (TLC) فعلی را ارائه می‌کنند، می‌توانند عملکرد بهتری را ارائه دهند.

زمانی که ممکن است هارد گزینه‌ی بهتری باشد:

رهبران فناوری اطلاعات نمی‌توانند این پیش‌فرض را داشته باشند که هر برنامه‌ی کاربردی حسّاس به تأخیر نیازمند به‌کارگیری اِس‌اِس‌دی است. شرکت‌ها اغلب متوجه این موضوع می‌شوند که آنها با اجرای بارهای کاری با آیوپس (IOPS) بالا و حسّاس به تأخیر در سامانه‌های مبتنی بر اِچ‌دی‌دی نیز، به‌ویژه در آنهایی که دارای اِچ‌دی‌دی‌های از درجه‌ی سازمانی بوده و برای بارهای کاری سرور و مراکز داده بهینه‌سازی شده‌اند، می‌توانند به عملکردی حتّی بیش از عملکرد کافی مورد نظر خود دست پیدا کنند. یک مثال خوب در اینجا، موارد استفاده در بایگانی‌کردن داده‌ها است.

اغلب در کاربردهایی از جمله بایگانی، پشتیبان‌گیری و مدیریت دارایی‌های رسانه، تفاوت تأخیر در سطح میلی‌ثانیه و میکروثانیه تأثیری بر عملکرد کاربر نهایی نمی‌گذارد. در این شرایط، اِچ‌دی‌دی‌ها می‌توانند انتخاب بهتری باشند، چرا که پاسخ‌گوی تلاش مستمر برای حفظ تعادل فناوری اطلاعات میان برآورد انتظارات عملکردی و حتّی فراتر از آن و پایبندی هم‌زمان به بودجه هستند.

کاربرد شماره ۲: ملاحظات هزینه‌ی کل مالکیت در رابطه با داده‌های ساختارنیافته در مقیاس پِتابایت

بحثی که اخیراً در صنعت شکل گرفته این است که کدام انتخاب بهتری برای ذخیره‌سازی در کاربری‌هایی هستند که با داده‌های ساختارنیافته از جمله فایل‌های رسانه‌ای غنی (Rich Media) یا داده‌های حسگرها سروکار دارند، اِس‌اِس‌دی‌های فلَش یا اِچ‌دی‌دی‌های با چگالی بالا. مبلّغین اِس‌اِس‌دی‌ها این‌گونه عنوان می‌کنند که جدیدترین انواع فلَش در هزینه‌ی واحد ظرفیت عملاً «هم‌تراز» با دیسک‌های سخت هستند. برخی حتّی پیش‌بینی می‌کنند که اِس‌اِس‌دی‌های فلَش با چگالی بالا به زودی جایگزین اِچ‌دی‌دی‌ها خواهند شد، زیرا قادر هستند همه‌ی وظایف را حتّی بهتر از آنها انجام دهند.

با این حال، امروزه اِس‌اِس‌دی‌های با چگالی بالا هنوز نمی‌توانند از منظر هزینه/عملکرد به طور کامل جایگزین دیسک‌های سخت شوند، به ویژه زمانی که صحبت از ذخیره‌سازی داده‌های ساختارنیافته در مقیاس پِتابایت در سراسر طیف بارهای کاری برنامه‌های کاربردی در میان باشد. یک ترکیب ایده‌آل از عملکرد، دوام طولانی‌مدت، ظرفیت و مقرون‌به‌صرفه‌بودن اغلب تنها با ترکیب فلَش‌ها و هاردها با هدف دستیابی به مزایای هر دو امکان‌پذیر است. این در واقع همان رویکرد استفاده از نقاط قوّت هر یک از آنها برای هر شرایط خاص و انتخاب رسانه‌ی ذخیره‌سازی مناسب که بهترین تناسب را برای هر بار کاری فراهم می‌سازد، است.

زمانی که صحبت از اطمینان‌پذیری در مقیاس عظیم است، درایوهای دیسک سخت می‌توانند ایده‌آل باشند؛ چنانچه این واقعیت که امروزه همچنان ۹۰٪ ظرفیت ذخیره‌سازها در مراکز داده‌ی ابری مبتنی بر اِچ‌دی‌دی‌ها است بر همین موضوع تأکید دارد.

کاربرد شماره ۳: پشتیبان‌گیری و یا ذخیره‌سازی ثانویه

به طور کلی، برنامه‌های پشتیبان‌گیری محموله‌ی فایل‌های بزرگ‌تری را بر روی فضای ذخیره‌سازی می‌نویسند و از روی آن می‌خوانند. این نوع از بارهای کاری از لحاظ نیازهای عملکردی که بر روی سامانه‌ی ذخیره‌سازی اجرا می‌کنند تقریباً مخالف بارهای کاری با ورودی/خروجی تصادفی (Random I/O) و حسّاس به تأخیر هستند.

برنامه‌های پشتیبان‌گیری زمانی بهترین عملکرد را دارند که یک دسترسی متوالی (Sequential) سریع به فایل‌های عظیم داده‌های پشتیبان، با توان عملیاتی (Throughput) در حد گیگابایت در ثانیه (یا ترابایت در ساعت) داشته باشند. همچنین، از آنجایی که امروزه اکثر سازمان‌ها صدها برنامه‌ی کاربردی حیاتی در اختیار دارند، منابع موجود باید قادر باشند چندین عملیات پشتیبان‌گیری و بازیابی را همزمان و به صورت موازی انجام دهند. استفاده از سامانه‌های ذخیره‌سازی اشتراکی برای جلوگیری از تکثیر سیلوهای ذخیره‌سازی سنّتی از بعد مالی منطقی‌تر است.

تمایز بین راه‌حل‌های مبتنی بر فلَش‌های چهارسطحی (QLC-flash) و راه‌حل‌های مبتنی بر درایوهای دیسک سخت (HDD) برای این نوع از حجم‌های کاری با ورودی/خروجی متوالی (Sequential I/O) ناچیز است. راه‌حل‌های ذخیره‌سازی شیءمحور مبتنی بر اِچ‌دی‌دی‌ها قادر هستند به دَه‌ها گیگابایت در ثانیه (دَه‌ها ترابایت در ساعت) با توان عملیاتی کافی برای اشباع شبکه دست پیدا کنند. این بسیار اهمیت دارد، چرا که آنچه که در اینجا موجب محدودیت در عملکرد می‌شود سامانه‌ی ذخیره‌سازی نیست، بلکه شبکه است.

علاوه بر این، از آنجایی که ملاحظات کلیدی زمانی برای پشتیبان‌گیری و بازیابی شامل زمان پردازش در برنامه، حذف تکرارها (Deduplication) یا فشرده‌سازی (Compression) و متّصل‌سازی مجدد داده‌ها هستند، خود برنامه ممکن است عامل محدودکننده در عملکرد کلی راه‌حل باشد. در نتیجه، معمولاً اختلاف حاشیه‌ای در توان بین اِچ‌دی‌دی‌ها و فلَش‌های اِس‌اِس‌دی‌ می‌تواند ناچیز باشد، به ویژه زمانی که هزینه نیز در تجزیه و تحلیل لحاظ شده باشد.

نتیجه‌گیری: انتخاب استفاده از اِچ‌دی‌دی‌ها یا اِس‌اِس‌دی‌ها به تعادل عملکرد در برابر هزینه بستگی دارد

بهینه‌سازی عملکرد برنامه‌های کاربردی در مقیاس پِتابایت می‌تواند به ملاحظات ظریف و در عین حال مهمی در انتخاب و تطبیق ذخیره‌ساز مناسب برای نوع تقاضا در آن برنامه بستگی داشته باشد. فلَش‌های چهارسطحی یک گزینه‌ی واحد برای همه‌ی نیازها نیستند. برای بارهای کاری حسّاس به تأخیر و متمرکز بر خواندن (Read-Intensive)، هزینه‌ی بالاتر آنها می‌تواند به یک سود معنادار برای کاربر نهایی ختم شود. با این حال، همیشه برای انواع دیگر حجم‌های کاری، از جمله پشتیبان‌گیری که در هسته‌ی اصلی راهبردهای امنیت داده‌ها و باج‌افزارهای جدید قرار دارند، مناسب نیستند.

با تطبیق الگوی عملکرد با مزایا و هزینه‌های رسانه‌ی ذخیره‌سازی، تیم‌های مرکز داده قادر هستند تعادل کاملی بین عملکرد و هزینه برقرار نمایند.

منتشر شده در وب‌سایت دیتا سنتر نالج Data Center Knowledge
توسط والی مک‌درمید (Wally MacDermid)، ۱۲ اوت ۲۰۲۳
برگردان توسط حامد معین‌فر
در شرکت مهندسین فناور پندار آریا – پنداریا

هدایت چشم‌انداز در حال تغییر در امنیت مراکز داده

عنوان اصلی مقاله: Navigating The Changing Landscape In Data Center Security
تاریخ انتشار و نویسنده: by Tim Liu, Jun 28, 2023
وب‌سایت منتشر کننده: Forbes
 لینک اصلی مقاله

امنیت مراکز داده

گِتی (Getty)

این گونه به نظر می‌رسد که نرخ نوآوری‌ها در فناوری – و بدافزارها – سریع‌تر از هر زمان دیگر در حال رشد است. مدیران عامل (CEOs)، مدیران ارشد مالی (CFOs)، مدیران ارشد امنیت (CSOs) و سایر کسانی که مسؤول حفاظت از داده‌ها – یعنی باارزش‌ترین دارایی‌های یک شرکت – هستند، باید در رأس هرم پیشرفت‌های کلیدی باقی بمانند تا قادر باشند با چشم‌انداز در حال تغییر حوزه‌ی امنیت همگام شوند.

ما در حال مشاهده‌ی سه روند کلیدی در این حوزه هستیم که تلاش‌ها برای برقراری امنیت دسترسی در مراکز داده را در زمان حال و آینده شکل خواهند داد: ظهور هوش مصنوعی (AI) و یادگیری ماشین (ML)، پذیرش فزاینده‌ی اصول اعتماد صفر (Zero-trust principles) و نیاز به امنیتی که بتواند محیط‌های چنداَبری (Multi-cloud environments) را در بر بگیرد.

بهره‌گیری از هوش مصنوعی و یادگیری ماشینی برای افزایش امنیت

هوش مصنوعی و یادگیری ماشینی برای سال‌های متوالی در صنایع و سناریوهای متعدد مورد استفاده قرار گرفته‌اند، اما اخیراً با انتشار چَت‌جی‌پی‌تی (ChatGPT) و ابزارهای مصرفی مشابه دیگر، توانسته‌اند تخیّل عموم را به خود جلب نمایند. در حوزه‌ی امنیت مرکز داده، هوش مصنوعی و یادگیری ماشینی به ویژه برای تقویت سازوکارهای دفاعی، شناسایی ناهنجاری‌ها و شاخص‌های خطر و پاسخ‌دهی خودکار به تهدیدات نوظهور مناسب هستند.

به عنوان نمونه، اِی‌آی و اِم‌اِل قادر هستند با سرعتی بالا مجموعه‌ی داده‌های جمع‌آوری‌شده از گزارش‌ها (Logs) و جریان‌های دیگر اطلاعاتی را برای شناسایی تهدیدات احتمالی، حملات یا سوء‌استفاده از داده‌های شرکت و همچنین پیش‌بینی خطرات و آسیب‌پذیری‌های احتمالی تجزیه و تحلیل کنند. با استفاده از این شیوه‌ها می‌توان با خُرد کردن بسیار سریع حجم عظیمی از داده‌ها، به تیم‌های امنیتی کمک کرد که با توجه به مشغولیت‌های بیش از حد خود از بسیاری از کارهای دستی خسته‌کننده خلاص شوند.

علاوه بر این، آنها قادر هستند نرخ شناسایی کدهای مخرّب (Exploits) کوچک‌تر اما اغلب خطرناک‌تری مانند تهدیدات مستمر پیشرفته (APTs: Advanced persistent threats)، حملات روز صفر (Zero-day attacks) و تهدیدات داخلی را افزایش دهند. همچنین «جامعه‌ی بین‌الملل امنیت صنعتی» یا اَسیس اینترنشنال (ASIS International) خاطرنشان می‌کند: «این امکان وجود دارد که از ابزارهای هوش مصنوعی و یادگیری ماشینی برای کمک به تشخیص تهدیدها قبل از آنکه به بتوانند به سامانه‌ها آسیب برسانند و یا در جمع‌آوری داده‌های جرم‌شناسی برای کمک به واکنش در برابر حوادث و بازیابی از آنها استفاده کرد.»

با این حال، مشابه آنچه در همتایان هوش مصنوعی در رده‌ی مصرف‌کننده دیده می‌شود، ممکن است هوش مصنوعی و یادگیری ماشینی در امنیت مرکز داده نیز منجر به نتایج مثبت کاذب (False positives) شوند و در معرض سوگیری (Bias) قرار بگیرند. با «آموزش» زیرسیستم‌های هوش مصنوعی امنیتی (Security AI) در زمان برقراری تعاملات عادی ترافیکی در مرکز داده و نیز از طریق فنون دیگر، می‌توان دقت و اثربخشی را بهبود بخشید و آنها را با محیط، متناسب ساخت.

هوش مصنوعی و/یا یادگیری ماشینی در انواع فناوری‌های امنیت سایبری از جمله فایروال‌های نسل بعدی (Next-gen firewalls) و مدیریت اطلاعات و رویدادهای امنیتی (SIEM) و همچنین نمونه‌های جدیدتر معرفی‌شده در سکّوهای حفاظت از بارهای کاری ابری (Cloud workload protection)  تعبیه شده‌اند.

کنترل کردن دسترسی: زِدتی‌اِن‌اِی (ZTNA)

در حالی که هوش مصنوعی و یادگیری ماشینی اغلب برای تقویت امنیت «در داخل» مراکز داده استفاده می‌شوند، باید توجه داشت که کنترل اینکه «چه کسی» و «چه چیزی» ممکن است به منابع حیاتی دسترسی داشته باشد نیز حداقل به همان اندازه اهمیت دارد، اگر که حتی اهمیت آن بیشتر نباشد. در نتیجه، مدیران مراکز داده به طور فزاینده‌ای در حال اتخاذ رویکرد دسترسی شبکه با اعتماد صفر یا زِدتی‌اِن‌اِی (ZTNA) هستند که در آن با هر کاربر، دستگاه و یا تعامل، با دید بالقوه مخرّب رفتار می‌شود.

با زِدتی‌اِن‌اِی، تمام تلاش‌ها برای برقراری دسترسی به شبکه تنها پس از پایان عملیات کامل احراز هویت (Authentication) و تجویز دسترسی (Authorization) در سطح چندین عامل تأیید می‌شوند، و حتی همین دسترسی نیز فقط برای منابع مشخص بر اساس آگاهی زمینه‌ای از آن درخواست و «اصول حداقل امتیاز» اعطاء می‌شود. این فرایند در طول نشست به طور مستمر ادامه پیدا می‌کند تا هرگونه تغییر در وضعیت امنیتی یا سایر شاخص‌های تهدید را شناسایی نماید.

اصول اعتماد صفر در تضاد مستقیم با شبکه‌های خصوصی مجازی (VPN) هستند که معمولاً دسترسی را به تمام یک شبکه یا زیرشبکه (Subnet) باز می‌کنند. همچنین وی‌پی‌اِن‌ها به گونه‌ای طراحی شده‌اند که فقط یک بار در شروع نشست هویت کاربران را احراز و مجوز صادر می‌کنند و اغلب از یک سامانه‌ی ورود یکپارچه (SSO: Single Sign-On) برای اعطای دسترسی به طیف گسترده‌ای از خدمات، برنامه‌ها و داده‌ها استفاده می‌کنند.

«دسترسی شبکه با اعتماد صفر» با فلسفه‌ای که برای خود دارد می‌تواند سطح در معرض حمله را کاهش دهد و حتی از حرکات عرضی تهدیدات در مرکز داده جلوگیری نماید؛ مشخصاً «شبکه‌های ربات‌های آلوده» یا بات‌نت‌ها (Botnets)، باج‌افزارها (Ransomwares) و تهدیدهای مشابه دیگر. همچنین قادر است میدان دید را در کل محیط‌های شبکه‌ی فیزیکی و ابری برای پاسخ سریع‌تر به تهدیدات و همچنین ارائه‌ی مدیریت یکپارچه و مقیاس‌پذیری آسان‌تر گسترش دهد.

با این حال، اتخاذ رویکرد زِدتی‌اِن‌اِی (ZTNA) می‌تواند نسبتاً گران باشد و پیکربندی و مدیریت آن نیز اغلب پیچیده است. علاوه بر این، بر محیط پیرامونی تمرکز دارد و معمولاً قادر نیست حملات یا ناهنجاری‌ها را تشخیص دهد. بنابراین همچنان فناوری‌های امنیتی مضاعفی همانند آنچه در بالا ذکر شدند، مورد نیاز خواهند بود.

ایمن‌سازی محیط‌های چنداَبری

سومین روند کلیدی که در امنیت مراکز داده شاهد آن هستیم، گسترش استقرارهای چنداَبری و چالش‌های حفاظت از داده‌ها و برنامه‌ها در این سکّوهای متنوع است. مدیران مراکز داده به طور فزاینده‌ای در حال اتخاذ راهبردهای چنداَبری در جهت افزایش تاب‌آوری و اطمینان‌پذیری داده‌ها و خدمات، اجتناب از وابستگی مالکانه به فروشندگان، کاهش هزینه‌ها و سایر ملاحظات هستند.

با این حال، مراکز داده‌ای که یک محیط چنداَبری را به کار می‌گیرند، سطح در معرض حمله‌ی بسیار وسیع‌تری را نیز در دسترس قرار می‌دهند که منجر به پیچیدگی در عملیات شبکه و امنیت سایبری می‌شود. بنابراین، حفظ میدان دید و کنترل گسترده به یک ملاحظه‌ی کلیدی در طراحی و مدیریت این معماری‌ها تبدیل می‌شود.

برای مثال، سیاست‌ها و کنترل‌های امنیتی باید در سطح تمام ابرها پیاده‌سازی شوند و باید به طور منظم نگهداری و به‌روز نگاه داشته شوند. اغلب، یک سکّوی متمرکز که به گره‌ها یا نودهای (Nodes) محلّی وصل است، قادر است میدان دید و قابلیت پایش و مدیریت مرکزی وضعیت امنیت سایبری را در سراسر محیط چنداَبری فراهم کند. همچنین ممکن است این خدمات یا دستگاه‌ها در جهت ساده‌سازی عملیات، امکاناتی برای خودکارسازی و هماهنگ‌سازی ارائه دهند و در عین حال خطر وقوع خطاهای انسانی را به حداقل برسانند.

علاوه بر این، رمزنگاری داده‌ها – چه در حالت ذخیره و چه در حالت انتقال – می‌تواند وضعیت امنیتی را بیشتر تقویت کند و زِدتی‌اِن‌اِی قادر است محیط پیرامونی را بدون توجه به موقعیت فیزیکی آن، امن سازد.

خلاصه

همچنان که فناوری‌های امنیتی مراکز داده و چشم‌انداز تهدیدات تکامل می‌یابند، این بسیار حیاتی است که با چالش‌های نوظهور سازگار شویم. در حال حاضر این سه روند کلیدی در صدر توجه بسیاری از مدیران ارشد امنیت و سایرینی که مسؤول امنیت مراکز داده و داده‌های حساس موجود در آنها هستند، قرار گرفته‌اند. این و سایر پیشرفت‌ها می‌توانند تاب‌آوری در برابر تهدیدات پیچیده و همچنین دسترسی‌های غیرمجاز یا سوء‌استفاده از داده‌ها را بهبود بخشند.

مدیران رده‌ی ارشد (C-suite) با آگاه‌ماندن از این روندها و سایر روندهای امنیتی، قادر هستند به تیم‌های فناوری خود در اجرای راهبردهای قوی امنیتی که با اهداف کسب‌وکار همسو هستند، کمک کنند.

 

تیموتی لیو (Timothy Liu) مدیر ارشد فناوری (CTO) و یکی از بنیان‌گذاران شبکه‌های هیل‌استون (Hillstone Networks) است . سوابق کامل اجرایی تیم لیو را در این آدرس بخوانید.

منتشر شده در وب‌سایت فوربس Forbes
توسط تیم لیو (Tim Liu)، ۲۸ ژوئن ۲۰۲۳
برگردان توسط حامد معین‌فر
در شرکت مهندسین فناور پندار آریا – پنداریا

پایان قانون مور چه معنایی برای صنعت مرکز داده دارد؟

عنوان اصلی مقاله: What Does the End of Moore’s Law Mean for the Data Center Industry?
تاریخ انتشار و نویسنده: by Christopher Tozzi, May 26, 2023
وب‌سایت منتشر کننده: Data Centre Dynamics Ltd (DCD)
 لینک اصلی مقاله

مرگ قانون مور در صنعت مرکز داده

شاید قانون مور (Moor’s Law) هنوز نمرده باشد، اما مطمئناً در بستر مرگ است. در اینجا به چگونگی تاثیر کاهش سرعت رشد قدرت محاسباتی بر صنعت مرکز داده می‌پردازیم.

چنانچه بی‌خبر بوده‌اید، اکنون بدانید که قانون مور – با این فرض که قدرت محاسباتی در طول زمان به طور پیوسته افزایش می‌یابد – دیگر مرده است، یا در بهترین حالت ممکن به آرامی در حال مرگ است. دیگر همچون دهه‌های گذشته ظرفیت پردازشی تراشه‌های رایانه‌ای با سرعت بالا در حال افزایش نیست.

این تغییر چه معنایی برای مراکز داده خواهد داشت؟ به طور بالقوه، به مقدار زیاد! برای مشاهده‌ی اینکه چگونه کُندشدن رشد توان محاسباتی می‌تواند بر صنعت مرکز داده تأثیرگذار باشد، به خواندن این نوشتار ادامه دهید.

قانون مور چیست و چرا مرده است؟

قانون مور که به پشتوانه‌ی گوردون مور (Gordon Moore) یکی از بنیان‌گذاران اینتل (Intel) که این مفهوم را در سال ۱۹۶۵ مطرح کرد نام‌گذاری شده است، این اصل را بیان می‌کند که تعداد ترانزیستورهایی که مهندسان قادر هستند در داخل تراشه‌های رایانه‌ای قرار دهند، تقریباً هر دو سال یک‌بار دو برابر می شود. با همین نسبت، قدرت محاسباتی تراشه‌های رده‌ی متوسط ​​نیز باید با سرعتی مشابه افزایش یافته و هزینه‌هایی که کسب‌وکارها برای به‌دست‌آوردن توان پردازشی می‌پردازند کاهش یابد.

برای چندین دهه، قضیه‌ی مور در اکثر موارد دقیق بود. ظرفیت محاسباتی تقریباً با سرعتی که او پیش‌بینی کرده‌بود افزایش یافت.

اما این قاعده دیگر جاری نیست. اگرچه ممکن است برای این‌که بگوییم قانون مور قطعاً مرده است خیلی زود باشد، با این وجود دلایلی وجود دارد که باور داشته‌باشیم که اکنون به محدودیت‌های فیزیکی در سی‌پی‌یو‌های (CPUs) بر پایه‌ی سیلیکون برخورد کرده‌ایم. بدون یک جایگزین عملیاتی، مهندسان دیگر قادر نیستند قدرت محاسباتی تراشه‌ها را به همان سرعتی که در سال‌های گذشته انجام می‌دادند، افزایش دهند.

بدون تردید این امکان وجود دارد که افرادی با هوش بالا راه‌هایی را برای دور زدن محدودیت‌های فعلی سیلیکون‌ها پیدا کنند، یا اینکه بالاخره محاسبات کوانتومی عملیاتی شود و زمین بازی پیرامون توان‌های محاسباتی را به طور کامل تغییر دهد. اما در حال حاضر داده‌ها نشان می‌دهند که نرخ افزایش توان پردازشی در حال کاهش است، بدون هیچ نشانه‌ی روشنی مبنی بر اینکه این روند به زودی تغییر خواهد کرد.

قانون مور و مراکز داده

این واقعیت که ظرفیت‌های سی‌پی‌یوها با سرعت پیشین در حال رشد نیستند، می‌تواند چندین پیامد عمیق برای مراکز داده به همراه داشته باشد.

مراکز داده‌ی بیشتر

شاید واضح‌ترین تاثیر آن این باشد که چه بسا ما شاهد ساخت مراکز داده‌ی بیشتری خواهیم بود.

حتّی اگر قانون مور نیز درست باشد، به احتمال زیاد این اتفاق در هر صورت خواهد افتاد. تقاضا برای خدمات دیجیتال مدّت‌ها است که از افزایش توان پردازشی پیشی گرفته‌است، به این معنی که شرکت‌ها مجبور شده‌اند زیربنا و به قولی ردّپای زیرساخت‌های فناوری اطلاعات خود را گسترش دهند، حتّی با این وجود که توان پردازشی تک‌تک سرورها در این زیرساخت‌ها در حال افزایش بوده‌است.

اما در دنیای پَسا قانون مور، ما به مراکز داده‌ی به مراتب بیشتری نیاز خواهیم داشت. اگر سرورها دیگر سال به سال قدرتمندتر نشوند، تنها راه برای پاسخ‌گویی به افزایش تقاضای کاربران، استقرار سرورهای بیشتر خواهد بود که به معنای ساخت مراکز داده‌ی بیشتر است.

چالش‌های پایدارپذیری در مراکز داده

افزایش تعداد کل مراکز داده چالش‌های فعلی مرتبط با قابلیت پایدارپذیری در مراکز داده را تشدید خواهد کرد. نصب سرورهای بیشتر به معنی نرخ‌های بالاتر مصرف انرژی است، به خصوص اگر تعداد ترانزیستورها در هر تراشه ثابت بماند.

گمان می‌رود این بدان معنا باشد که جذابیت و مزیّت آن دسته از ارائه‌دهندگان خدمات مراکز داده که قادر هستند از منابع انرژی پاک بهره ببرند، بیشتر خواهد شد. تاثیر فناوری‌های نسل بعدی (Next-generation) مراکز داده‌، از جمله خنک‌کننده‌های غوطه‌ور (Immersion Cooling) نیز که قادر هستند ردّپای کربنی تأسیسات مراکز داده را کاهش دهند، به همین صورت خواهد بود.

شرکت‌های بیشتری وارد بازار تراشه‌ها خواهند شد

برای چندین دهه، تعداد نسبتاً کمی از سازندگان – یعنی اینتل و اِی‌اِم‌دی (AMD) – بر بازار تراشه‌های رایانه‌ای که در سرورهای مصرفی نصب می‌شدند تسلّط داشتند. این شرکت‌ها قادر بودند توان پردازشی را به‌طور پیوسته افزایش دهند که همین موضوع به سایر کسب‌وکارها انگیزه‌ی کمی برای ورود به بازی ساخت تراشه‌ها می‌داد.

اما این موضوع در سال‌های اخیر تغییر کرده‌است، زیرا شرکت‌هایی مانند اِی‌دبلیواِس (AWS) شروع به ساخت تراشه‌های اختصاصی خود کرده‌اند و چه بسا منسوخ‌شدن قانون مور چنین کسب‌وکارهایی را به سرمایه‌گذاری بیشتر در فناوری‌های طراحی و ساخت سی‌پی‌یوها سوق دهد. دلیل این امر این است که آنها به دنبال راه‌های جدیدتر و بهتری برای افزایش کارایی در تراشه‌ها هستند، به‌ویژه در زمینه‌ی موارد استفاده‌ای خاص که پردازنده‌ها را برای آن کارها مستقر می‌کنند.

به عبارت دیگر در دنیایی که سی‌پی‌یوهای عمومی بر خلاف گذشته سال به سال قدرتمندتر و ارزان‌تر نمی‌شوند، شرکت‌ها انگیزه‌ی بیشتری برای توسعه‌ی سی‌پی‌یوهای خاص خود پیدا می‌کنند که برای موارد استفاده‌ای که برایشان اهمیت دارد، بهینه‌سازی شده‌اند.

بهینه‌سازی بارهای کاری اهمیت پیدا خواهد کرد

کاهش بارهای کاری (Workload) مصرفی سی‌پی‌یوها همواره یک حرکت هوشمندانه برای شرکت‌هایی بوده است که می‌خواهند در هزینه‌های میزبانی خود صرفه‌جویی کنند. اما در دنیای پس از قانون مور، اهمیت بهینه‌سازی بارهای کاری بسیار بیشتر از اکنون خواهد شد.

این بدان معنا است که گمان می‌رود ما شاهد انتقال بارهای کاری بیشتری به کانتینرها باشیم. چه بسا بازار فین‌آپس (FinOps) و بهینه‌سازهای هزینه‌های ابری نیز رونق خواهند گرفت، زیرا کسب‌وکارهای بیشتری به دنبال راهبردهایی برای به‌حداکثررساندن کارایی بارهای کاری خود خواهند بود.

نتیجه‌گیری

صنعت مرکز داده در جهانی رشد کرد که در آن قدرت تراشه‌های رایانه‌ای همواره در حال افزایش و قیمت آنها در حال کاهش بوده‌است. اما آن جهان دیگر از دنیا رفته است! ما در عصر پس از قانون مور یا نزدیک به آن زندگی می کنیم.

چه بسا در نتیجه‌ی این تحوّل شاهد مراکز داده‌ی بیشتر، سی‌پی‌یوهای متنوّع‌تر با اهداف خاص و فشارهای بیشتر بر کسب‌وکارها برای بهینه‌سازی مراکز داده‌ی خود باشیم. ارائه‌دهندگان خدمات مراکز داده و مشتریان آنها باید خود را با وضعیت جدید وفق دهند، یا همچنان به این امید که در نهایت انقلاب کوانتومی به نتیجه خواهد رسید و به طرز مضحکی قدرت محاسباتی را ارزان خواهد کرد منتظر بمانند، اگرچه گمان می‌رود این یک راهبرد برنده نباشد.

منتشر شده در وب‌سایت Data Centre Dynamics Ltd (DCD)
۲۶ مه ۲۰۲۳، توسط کریستوفر توزی (Christopher Tozzi)
برگردان توسط حامد معین‌فر
در شرکت مهندسین فناور پندار آریا – پنداریا

غلبه بر چالش‌های رایج در مدیریت پروژه‌های فناوری اطلاعات

عنوان اصلی مقاله: Overcoming Common IT Project Management Challenges
تاریخ انتشار و نویسنده: by Srikanth, 15 May 2023
وب‌سایت منتشر کننده: TechiExpert
 لینک اصلی مقاله

مدیریت پروژه‌های فناوری اطلاعات مجموعه‌ی پیچیده‌ای از وظایف و مسؤولیت‌هایی است که نیاز به تخصّص در هر دو حوزه‌ی فنی و مدیریتی دارد.

مدیران پروژه‌های فناوری اطلاعات مسؤول برنامه‌ریزی، اجرا و تحویل پروژه‌ها در محدوده، زمان و بودجه‌ی تخصیص‌داده‌شده هستند. با این حال، ماهیت همواره در حال تحوّل صنعت فناوری اطلاعات، روند سریع پیشرفت‌های فناورانه، و پیچیدگی‌های فزاینده‌ی پروژه‌های فناوری اطلاعات، چالش‌های متعددی را در برابر خدمات مدیریت پروژه‌های فناوری اطلاعات قرار داده‌اند. در این نوشتار، برخی از چالش‌های رایجی را که مدیران پروژه‌های فناوری اطلاعات با آن مواجه هستند بررسی نموده و در رابطه با راهبردهای مواجهه با این چالش‌ها بحث می‌کنیم.

چالش‌های پیش روی مدیران پروژه‌های فناوری اطلاعات

مدیران پروژه‌های فناوری اطلاعات با چالش‌های مختلفی از جمله مدیریت خَزش دامنه (Scope creep)، انتظارات ذی‌نفعان (Stakeholder expectations)، انواع بِده‌بِستان (Trade-offs)، ارتباطات (Communication)، همکاری‌ها (Collaboration) و به‌روزماندن متناسب با آخرین فناوری‌ها و روش‌شناسی‌ها مواجه هستند.

برای اطمینان از غلبه بر تمام این چالش‌ها، بهتر است یک مدیر پروژه آی‌تی (IT) با تجربه استخدام کنید تا مطمئن شوید که کل پروژه به خوبی پیش خواهد رفت. […]

چالش شماره ۱: خَزش دامنه

یکی از بزرگ‌ترین چالش‌هایی که مدیران فناوری اطلاعات با آن مواجه هستند، خَزش دامنه است. این اصطلاح به گسترش تدریجی نیازها و الزامات یک پروژه فراتر از محدوده‌ی اولیه‌ی آن، بدون اعمال تعدیل متناظر در جدول زمان‌بندی، منابع یا بودجه‌ی آن پروژه اشاره دارد. خَزش دامنه یک مشکل رایج در پروژه‌های فناوری اطلاعات است، چرا که با تکامل هرچه سریع‌تر فناوری‌ها، ذی‌نفعان پروژه ایده‌های جدیدی پیدا می‌کنند که [با اصرار بر آنها] موجب می‌شوند مسائل پیش‌بینی‌نشده‌ای در طول توسعه‌ی پروژه بروز پیدا کنند.

تعریف و نمونه‌هایی از خَزش دامنه در پروژه‌های آی‌تی

خَزش دامنه می‌تواند اَشکال مختلفی داشته باشد. این چالش ممکن است از افزوده‌شدن ویژگی‌ها، قابلیت‌ها یا الزامات جدیدی ایجاد شود که بخشی از برنامه‌ی اولیه‌ی پروژه نبوده‌اند. همچنین می‌تواند در نتیجه‌ی تغییر مشخصات موجود، از جمله تغییر در رابط کاربری، ساختار پایگاه داده، یا تشریفات امنیتی بروز نماید. مثال‌هایی از خَزش دامنه در پروژه‌های فناوری اطلاعات عبارتند از:

•  یک پروژه‌ی توسعه‌ی نرم‌افزاری که قرار بوده‌است تنها یک سامانه‌ی ساده‌ی مدیریت موجودی انبار را تحویل دهد، امّا در نهایت بدون افزایش متناظر در اندازه‌ی تیم توسعه‌دهنده یا جدول زمانی پروژه، مُدول‌هایی برای پیش‌بینی میزان فروش، بهینه‌سازی زنجیره‌ی تامین و مدیریت ارتباطات با مشتریان، به آن اضافه شده‌است.
•  یک پروژه‌ی ارتقاء زیرساخت‌های فناوری اطلاعات که قرار بوده‌است سخت‌افزارها و نرم‌افزارهای قدیمی را جایگزین کند، اما در نهایت بدون آنکه بودجه افزایش یابد و یا آموزش‌های مرتبط به کارکنان فناوری اطلاعات ارائه شوند، به آن برنامه‌های کاربردی، خدمات ابری و دستگاه‌های همراه جدید اضافه شده‌است.
•  یک پروژه‌ی تارنمای تجارت الکترونیک که برای فروش طیف محدودی از محصولات طراحی شده‌بود، اما در نهایت به آن گزینه‌های جدیدی چون روش‌های پرداخت، حمل و تحویل و نیز کانال‌های پشتیبانی مشتریان اضافه شده‌است، بدون آنکه متناظراً در سطوح تضمین کیفیت و یا آزمون‌های کاربری تغییری اعمال شود.

تأثیر خَزش دامنه بر خط زمانی و بودجه‌ی پروژه

خَزش دامنه می‌تواند تأثیر قابل توجهی بر خط زمانی و بودجه‌ی پروژه داشته باشد. ممکن است زمانی که دامنه‌ی یک پروژه فراتر از مرزهای اولیه‌ی تعریف‌شده‌ی آن گسترش می‌یابد، تیم پروژه با چندین چالش روبرو شود:

الزامات نامشخص: این احتمال وجود دارد که با تغییر نیازها و الزامات پروژه، تیم پروژه در خصوص آنچه که باید انجام دهد و نحوه‌ی انجام آنها دچار تردید شود. این موضوع می‌تواند منجر به بروز تأخیر، اشتباه و دوباره‌کاری در پروژه شود.
بار کاری مضاعف: ممکن است با گسترش دامنه‌ی پروژه، تیم پروژه نیز با افزایش حجم کاری خود مواجه شود، بدون آنکه ظرفیت یا مهارت‌های آنها افزایش یابد. این عامل می‌تواند منجر به بروز مشکلاتی از جمله فرسودگی شغلی، ترک خدمت و کاهش کیفیت شود.
نارضایتی ذی‌نفعان: این امکان وجود دارد که با گسترش دامنه‌ی پروژه، ذی‌نفعان از بابت تأخیرها، افزایش هزینه‌ها و یا انتظارات برآورده‌نشده، ناامید شوند. این مسأله می‌تواند منجر به بروز درگیری، بی‌اعتمادی و شکست در پروژه شود.

راهبردهای مفید برای جلوگیری از بروز و مدیریت خَزش دامنه

برای جلوگیری از بروز و مدیریت خَزش دامنه، مدیران فناوری اطلاعات می‌توانند از چندین راهبرد استفاده نمایند:

محدوده‌ی واضح پروژه: از همان ابتدا، محدوده‌ی پروژه باید به خوبی تعریف، مستندسازی و به همه‌ی ذی‌نفعان ابلاغ شود. این شامل اهداف پروژه، نتایج تحویل‌دادنی، جدول زمان‌بندی و بودجه‌ی پروژه است.
فرایند کنترل تغییرات: هر زمان که یک درخواست تغییر ارائه می‌شود، باید فرایند رسمی کنترل تغییرات را طی کند تا تأثیر آن بر روی محدوده‌، جدول زمان‌بندی و بودجه‌ی پروژه ارزیابی شود. این فرایند باید همه‌ی ذی‌نفعان را درگیر کرده و معیارهای روشنی برای تایید یا رد درخواست تعریف کرده باشد.
روش‌شناسی چابک (Agile): «روش‌شناسی چابک» بر توسعه‌ی تکرار شونده، دریافت مستمر بازخوردها و همکاری میان همه‌ی ذی‌نفعان تاکید دارد. با اتخاذ یک رویکرد چابک، تیم پروژه قادر می‌شود خود را با تغییر در نیازمندی‌ها سازگار کرده و در عین حال تمرکز و کیفیت را در پروژه حفظ نماید.
مدیریت مخاطرات (Risks): مدیریت مخاطرات شامل شناسایی، ارزیابی و کاهش آن دسته‌ای از خطرات احتمالی می‌باشد که ممکن است بر محدوده، خط زمانی و یا بودجه‌ی پروژه تاثیرگذار باشند. با پرداختن به مخاطرات، تیم پروژه قادر می‌شود تأثیرات بروز یک خَزش در دامنه‌ی پروژه را به حداقل برساند.
ارتباطات: برای جلوگیری از بروز و مدیریت خَزش دامنه، ارتباط مؤثر بین همه‌ی ذی‌نفعان یک موضوع حیاتی است. این روش شامل به‌روزرسانی منظم وضعیت پروژه، گزارش‌های شفاف، و گوش‌سپردن فعال به بازخوردها و نگرانی‌ها است.

چالش شماره ۲: تخصیص منابع

چالش کلیدی دیگری که مدیران فناوری اطلاعات با آن مواجه هستند، موضوع تخصیص منابع است که شامل فرایند تخصیص افراد، مهارت‌ها و تجهیزات مناسب به وظایف مناسب، برای دست‌یابی به الزامات و محدودیت‌های پروژه می‌باشد. تخصیص منابع یک کار پیچیده می‌باشد که مستلزم ایجاد تعادل بین عوامل متعدّدی از جمله دسترس‌پذیری، ظرفیت، شایستگی و هزینه است.

چالش‌های مشترک در تخصیص منابع

مدیران آی‌تی، اغلب در هنگام تخصیص منابع با چندین چالش رایج روبرو هستند، از جمله:

منابع محدود: پروژه‌های فناوری اطلاعات اغلب به مجموعه‌ای از مهارت‌ها و تجهیزات تخصّصی نیاز دارند که ممکن است به راحتی در دسترس نباشند و یا تقاضای زیادی برای آنها وجود داشته باشند. این چالش می‌تواند منجر به کمبود منابع، تأخیر و یا کاهش کیفیت شود.
اولویت‌های رقابتی: ممکن است پروژه‌های فناوری اطلاعات برای منابع مورد نیاز خود با پروژه‌ها یا عملیات‌های دیگر از جمله تعمیر و نگهداری، ارتقاء یا پشتیبانی رقابت کنند. این چالش می‌تواند منجر به درگیری یا تن‌دادن به بِده‌بِستان و سازش در عملکرد پروژه شود.
تقاضای نامشخص: این احتمال وجود دارد که پروژه‌های فناوری اطلاعات به دلیل عواملی مانند تغییر شرایط بازار، بازخورد کاربران و یا مسائل فنی، نوساناتی را در تقاضاهای خود برای جذب منابع تجربه کنند. این چالش می‌تواند منجر به جذب مضاعف نیروی انسانی، استفاده‌ی ناکافی از ظرفیت آنها و یا ازدست‌دادن فرصت‌ها شود.
عوامل انسانی: پروژه‌های فناوری اطلاعات از مجموعه‌ی افرادی تشکیل شده‌اند که ممکن است انگیزه‌ها، انتظارات و یا تعارضات متفاوتی نسبت به یکدیگر داشته باشند. این چالش می‌تواند منجر به بروز سوء‌تفاهم، عدم ارتباط صحیح یا مقاومت در برابر تغییرات شود.

راهبردهایی برای بهینه‌سازی تخصیص منابع

برای بهینه‌سازی تخصیص منابع، مدیران فناوری اطلاعات می‌توانند از چندین راهبرد استفاده نمایند، از جمله:

برنامه‌ریزی ظرفیت: برنامه‌ریزی ظرفیت شامل پیش‌بینی تقاضا برای منابع و هم‌سویی آن با ظرفیت موجود، برای پیش‌گیری از بروز کمبود یا اضافه‌ی ظرفیت است. این راهبرد را می‌توان از طریق بهره‌گیری از ابزارهایی مانند تجزیه‌وتحلیل حجم کاری، سطح‌بندی منابع و یا برنامه‌ریزی مبتنی بر سناریوها اجرا نمود.
اشتراک‌گذاری منابع: اشتراک‌گذاری منابع به معنی استفاده از منابع یکسان در چندین پروژه یا عملیات، برای کاهش هزینه‌ها و افزایش کارایی آنها است. این راهکار را می‌توان با استفاده از ابزارهایی مانند تجمیع منابع، آموزش متقابل یا چرخش شغلی پیاده‌سازی کرد.
بهینه‌سازی منابع: بهینه‌سازی منابع شامل استفاده از منابع درست برای وظایف درست، بر اساس مهارت‌ها، تجربه‌ها و در دسترس‌پذیری آن منابع است. این کار را می‌توان به وسیله‌ی ابزارهایی چون نرم‌افزارهای تخصیص منابع، سنجه‌های به‌کارگیری منابع و یا نمایه‌سازی صلاحیت‌های منابع انجام داد.
همکاری: همکاری شامل پرورش فرهنگ کار تیمی، برقراری ارتباط و به اشتراک‌گذاری دانش در میان تیم پروژه، ذی‌نفعان و سایر بخش‌ها است. این راهبرد را می‌توان با بهره‌گیری از ابزارهایی مانند روش‌شناسی چابک، نرم‌افزارهای مدیریت پروژه و یا سکوهای مجازی همکاری تیمی اجرا نمود.
بهبود مستمر: بهبود مستمر شامل جستجو برای بازخوردها، نظارت بر عملکردها و شناسایی فرصت‌های بهبود در فرایندهای تخصیص منابع است. این راهکار را می‌توان با استفاده از ابزارهایی مانند سنجه‌های عملکرد، کنترل کیفیت و یا اتوماسیون فرایندها اجرا کرد.

چالش شماره ۳: مسائل ارتباطی

ارتباطات مؤثر یک جنبه‌ی حیاتی در مدیریت موفق پروژه‌ها هستند و پروژه‌های فناوری اطلاعات نیز از این قاعده مستثنی نمی‌باشند. با این وجود، مشکلات ارتباطی می‌توانند چالش‌های مهمی را برای مدیران فناوری اطلاعات ایجاد کنند که ممکن است منجر به بروز سوء‌تفاهم، تأخیر و یا حتی شکست پروژه شوند.

اهمیت ارتباطات مؤثر در مدیریت پروژه‌ها

وجود یک ارتباط مؤثر برای موفقیت پروژه ضروری است، چرا که:

درک را تسهیل می‌کند: ارتباطات واضح و مختصر به ذی‌نفعان کمک می‌کنند تا اهداف، الزامات و محدودیت‌های پروژه را بهتر درک نمایند.
اعتماد ایجاد می‌کند: ارتباطات باز و صادقانه اعتماد و همکاری را در بین اعضای تیم، ذی‌نفعان و شرکاء تقویت می‌کنند.
انتظارات را مدیریت می‌کند: ارتباط به موقع و دقیق به مدیریت انتظارات و جلوگیری از ایجاد غافل‌گیری و یا سوء‌تفاهم کمک می‌کند.
مسائل را شناسایی و حل می‌کند: ارتباط مؤثر به شناسایی و حل مسائل، مخاطرات و تضادها قبل از تشدید آنها کمک می‌کند.
از فرایند تصمیم‌گیری پشتیبانی می‌کند: ارتباطات دقیق و مرتبط با موضوع، اطلاعات مورد نیاز برای تصمیم‌گیری آگاهانه را فراهم می‌سازند.

مسائل رایج ارتباطی در پروژه‌های فناوری اطلاعات

علی‌رغم اهمیت ارتباطات مؤثر، اغلب پروژه‌های فناوری اطلاعات با چندین مشکل ارتباطی رایج روبرو هستند، از جمله:

عدم شفافیت: ارتباطات نامشخص یا مبهم می‌توانند منجر به سوء‌تفاهم، سردرگمی یا تفسیر نادرست شوند.
ناهم‌ترازی: ارتباطات غیرهم‌تراز بین اعضای تیم، ذی‌نفعان یا شرکاء می‌توانند منجر به ایجاد انتظارات واگرا و  یا اهداف متضاد شود.
سیلوها: ارتباطات سیلوشده یا جزیره‌ای در بخش‌ها، تیم‌ها و یا کارکردها می‌توانند منجر به ایجاد تکرار، ناکارآمدی یا حصول نتایج غیربهینه شوند.
اصطلاحات فنی: اصطلاحات فنی یا کلمات اختصاری می‌توانند به موانع ارتباطی، به ویژه با ذی‌نفعان غیرفنی منجر شوند.
تفاوت‌های فرهنگی: تفاوت‌های فرهنگی در سبک‌ها، هنجارها و یا ارزش‌های ارتباطی می‌توانند منجر به بروز ارتباطات نادرست، بی‌اعتمادی و یا تعارضات شوند.

راهبردهای بهبود ارتباطات و همکاری

برای بهبود ارتباطات و همکاری در پروژه‌های فناوری اطلاعات، مدیران فناوری اطلاعات قادر هستند از چندین راهبرد بهره بگیرند، از جمله:

ایجاد تشریفات (Protocols) واضح ارتباطی: تعریف شفاف تشریفات ارتباطی، از جمله کانال‌ها، قالب‌ها و دوره‌های تناوب، قادر هستند به حصول اطمینان از موجود یک ارتباط منسجم و مؤثر کمک کنند.
ایجاد یک فرهنگ مشارکتی: وجود یک فرهنگ مشارکتی که به کار تیمی، بازخورد و احترام اهمیت می‌دهد، قادر است ارتباطات باز و صادقانه را تقویت نماید.
استفاده از ابزارهای همکاری: ابزارهای همکاری تیمی، مانند نرم‌افزارهای مدیریت پروژه، سکوهای گفتگو و یا همایش‌های ویدئویی، می‌توانند ارتباطات و همکاری‌ها را تسهیل کنند.
آموزش و توسعه: برنامه‌های آموزشی و توسعه‌ای، از جمله برای مهارت‌های ارتباطی، آگاهی‌بخشی فرهنگی و یا حل تعارضات، می‌توانند اثربخشی ارتباطات را بهبود بخشیده و سوءتفاهم‌ها را کاهش دهند.
دریافت بازخورد: دریافت بازخورد از ذی‌نفعان، اعضای تیم و یا شرکاء می‌تواند بینش‌های ارزشمندی در خصوص اثربخشی ارتباطات ارائه داده و زمینه‌های بهبود را شناسایی نماید.

نتیجه‌گیری

در نتیجه، مدیریت فناوری اطلاعات با چالش‌های متعددی در چشم‌انداز دیجیتالی امروز مواجه است، از جمله فناوری‌های در حال تکامل، تهدیدات امنیت سایبری و یکپارچه‌سازی‌های بی‌نقص. مدیران فناوری اطلاعات قادر هستند با برنامه‌ریزی، ارتباطات و همکاری مناسب، از این چالش‌ها با موفقیت عبور کنند و سازمان خود را به سمت آینده‌ای کارآمدتر و مطمئن‌تر سوق دهند. برای رهبران فناوری اطلاعات، انطباق با چشم‌انداز در حال تغییر و تصمیم‌گیری آگاهانه، موضوعاتی حیاتی هستند.

منتشر شده در وب‌سایت TechiExpert
۱۵ مه ۲۰۲۳، توسط سریکانث (Srikanth)
برگردان توسط حامد معین‌فر
در شرکت مهندسین فناور پندار آریا – پنداریا

چَت‌جی‌پی‌تی نیاز دارد برای هر ۲۰ الی ۵۰ سوالی که پرسیده می‌شود، یک بطری کامل آب شیرین «بنوشد»

عنوان اصلی مقاله: ChatGPT needs to ‘drink’ a water bottle’s worth of fresh water for every 20 to 50 questions you ask
تاریخ انتشار و نویسنده: by Will Gendron, Apr 14, 2023
وب‌سایت منتشر کننده: Business Insider
 لینک اصلی مقاله

تخمین زده می‌شود که چَت‌جی‌پی‌تی برای هر ۲۰تا ۵۰ پرسش و پاسخ، یک بطری استاندارد ۵۰۰ گرمی آب مصرف می‌کند. عکس از نارایان ماهارجان (Narayan Maharjan) /نورفوتو (NurPhoto) از طریق گِتی ایمِجز (Getty Images)

 

با هجوم عموم مردم به سمت ابزارهای هوش مصنوعی مولّد از جمله چَت‌جی‌پی‌تی (ChatGPT)، تأثیر زیست‌محیطی این فناوری جدید در شرف آشکارشدن است.

هر چند تا این لحظه داده‌های بسیار کمی در مورد هوش مصنوعی و قابلیت پایدارپذیری (Sustainability) آن وجود دارد، نوک پیکان مطالعه‌ی اخیر مشترک میان محقّقان دانشگاه کالیفرنیا در ریورساید (Riverside) و دانشگاه تگزاس در آرلینگتون (Arlington) به سمت ردّپای آبی مدل‌های هوش مصنوعی از جمله GPT-3 و GPT-4 از اُپن‌اِی‌آی (OpenAI) نشانه رفته‌است.

تخمین زده شده‌است که مایکروسافت در حین آموزش GPT-3 در مراکز داده‌ی خود، ۷۰۰٬۰۰۰ لیتر یا حدود ۱۸۵٬۰۰۰ گالن آب شیرین مصرف کرده‌است. این مقدار آب، طبق گفته‌ی گیزمودو (Gizmodo) برای پر کردن برج خنک‌کننده‌ی یک راکتور هسته‌ای کافی است، و نیز برابر با همان مقداری است که برای تولید ۳۷۰ خودروی بی‌ام‌و (BMW) یا ۳۲۰خودروی تسلا (Tesla) استفاده می‌شود.

با استفاده از این اعداد، مشخص شده‌است که چَت‌جی‌پی‌تی برای هر ۲۰ تا ۵۰ سوالی که پاسخ می‌دهد به ۵۰۰ میلی‌لیتر آب یا یک بطری بزرگ آب آشامیدنی احتیاج دارد.

نویسندگان این مطالعه، با توجه به پایگاه بزرگان کاربران چَت‌جی‌پی‌تی می‌گویند: «هرچند ممکن است یک بطری آب ۵۰۰ میلی‌لیتری خیلی زیاد به نظر نرسد، اما مجموع ترکیب ردّپای آبی تا رسیدن کاربران به نتیجه استنتاجات خود همچنان بسیار زیاد است».

یکی از سخن‌گویان شرکت مایکروسافت در بیانیه‌ای به اینسایدر (Insider) گفت: مایکروسافت «در حال سرمایه‌گذاری تحقیقاتی بر روی اندازه‌گیری مصرف انرژی و تاثیر کربنی هوش مصنوعی است، در حالی که هم‌زمان بر روی راهکارهایی برای کارآمدترسازی سامانه‌های بزرگ، چه در زمان آموزش و چه در زمان کاربرد هوش مصنوعی کار می‌کند.»

او افزود: «ما هم‌چنان به سرمایه‌گذاری در خرید انرژی‌های تجدیدپذیر و سایر تلاش‌ها برای دستیابی به اهداف خود در پایدارپذیری، یعنی منفی‌شدن کربنی (Carbon Negative)، مثبت‌شدن آبی (Water Positive) و صفرشدن ضایعاتی (Zero Waste) تا سال 2030 ادامه می‌دهیم.»

اُپن‌اِی‌آی به درخواست‌های اینسایدر برای اظهار نظر در این خصوص پاسخی نداد.

مدل‌های هوش مصنوعی از جمله GPT-3 و GPT-4 در مراکز داده میزبانی می‌شوند، که انبارهایی هستند فیزیکی که ردیف‌های بزرگی از سرورهای محاسباتی را در خود جای داده‌اند. کار این سرورها شناسایی روابط و الگوها در میان مجموعه‌ی عظیمی از داده‌ها می‌باشد که به نوبه‌ی خود مصرف‌کننده‌ی انرژی هستند؛ چه از نوع برق باشد یا زغال سنگ، انرژی هسته‌ای یا گاز طبیعی.

منابع قابل توجهی از انرژی در فرایند آموزش هوش مصنوعی مصرف شده که بلافاصله تبدیل به گرما می‌شوند. سپس از منابع آب موجود در محل برای کنترل دما در کل زیرساخت‌ها استفاده می‌شود. بر مبنای این مطالعه، برای کنترل رطوبت در سطح مناسب و نیز از آنجایی که آب شور می‌تواند منجر به خوردگی، گرفتگی لوله‌های آب و رشد باکتری‌ها شود، برای این منظور آب شیرین مورد نیاز می‌باشد.

به گفته‌ی محقّقان، در این مسیر رو به جلو، این ارقام می‌توانند «برای GPT-4 که تازه راه‌اندازی شده‌است و اندازه‌ی مدل بسیار بزرگ‌تری دارد، چندین برابر افزایش یابد.»

تیم محقّقان با استفاده از یک روش متعلّق به خود که اثربخشی مصرف آب (WUE) در محل و خارج از محل مرکز داده را محاسبه می‌کند، موفّق شده‌اند علاوه بر مصرف انرژی، تخمین‌هایی را نیز از ردّپای آبی مدل زبان بزرگ گوگل که لامدا (LaMDA) نامد دارد، به‌دست آورند.

با این حال، عدم وجود شفافیت در خصوص ارقام آب مصرفی مرتبط با آموزش هوش مصنوعی، در نهایت تعیین دقیق ردّپای واقعی آبی را دشوار می‌سازد. وقتی از گوگل در خصوص مصرف آب لامدا سوال شد، ما را به گزارش نوامبر ۲۰۲۲ خود ارجاع داد که در آن داده‌های سال ۲۰۲۱ مصرف گسترده‌ی آب در مراکز داده منتشر شده‌است.

محقّقان نوشته‌اند: «در حالی که نمی‌توان بدون وجود داده‌های دقیق از گوگل ردّپای واقعی آبی را شناخت، تخمین ما نشان می‌دهد که کل ردّپای آبی آموزش لامدا به مراتبی در حدود میلیون‌ها لیتر است.»

در حالی که ردّپای کربنی درگیر در هوش مصنوعی مولّد، زنگ‌های خطر را به صدا در آورده‌است، محقّقان می‌گویند که مقاله‌ی آنها به دنبال این است که «ضرورت پرداختن به ردّپای آبی در کنار ردّپای کربنی را برای امکان‌دادن به هوش مصنوعی واقعاً پایدار‌پذیر، برجسته نماید.»

منتشر شده در وب‌سایت Business Insider
توسط ویل گِندرون (Will Gendron) ، ۱۴ آوریل ۲۰۲۳
برگردان توسط حامد معین‌فر
در شرکت مهندسین فناور پندار آریا – پنداریا

هوش مصنوعی چگونه مدیریت پروژه‌ها را متحوّل خواهد کرد

عنوان اصلی مقاله: How AI Will Transform Project Management
تاریخ انتشار و نویسنده: by Antonio Nieto-Rodriguez and Ricardo Viana Vargas, February 02, 2023
وب‌سایت منتشر کننده: Harvard Business Review
 لینک اصلی مقاله

خلاصه: امروزه، تنها ۳۵درصد از پروژه‌ها با موفقیت به سرانجام می‌رسند. یکی از دلایل این نرخ ناامیدکننده در سرنوشت پروژه‌ها، سطح پایین بلوغ فناوری‌های در دسترس برای مدیریت پروژه‌ها است. امّا اکنون این وضعیت در حال تغییر است. محقّقان، شرکت‌های نوپا و سازمان‌های نوآور، شروع به بهره‌گیری از هوش مصنوعی (AI)، یادگیری ماشینی (ML) و سایر فناوری‌های پیشرفته در مدیریت پروژه‌ها کرده‌اند و این حوزه تا سال ۲۰۳۰ دستخوش تغییرات اساسی خواهدشد. به زودی این دست از فناوری‌ها انتخاب و اولویت‌بندی پروژه‌ها را بهبود خواهند بخشید، بر پیشرفت آنها نظارت خواهند کرد، سرعت تولید گزارشات را افزایش خواهند داد و موجب تسهیل در آزمون‌های تحویل خواهند شد. مدیران پروژه، با بهره‌گیری دستیاران مجازی در پروژه‌ها، بیشتر از آنکه نقش خود را بر کارهای اداری و دستی متمرکز سازند، به مربّی‌گری اعضای تیم پروژه و مدیریت انتظارات ذی‌نفعان خواهند پرداخت. نویسندگان این مقاله می‌خواهند نشان دهند که چگونه سازمان‌هایی که تمایل دارند از مزایای فناوری‌های نوین در مدیریت پروژه‌ها بهره ببرند، باید از همین امروز کار خود را با جمع‌آوری و پاک‌سازی داده‌های موجود در پروژه‌ها آغاز نمایند.

تصوّر نمایید در آینده‌ای نزدیک، مدیر عامل یک شرکت بزرگ ارائه‌دهنده‌ی خدمات مخابراتی چگونه از یک برنامه‌ی کاربردی بر روی گوشی هوشمند خود برای بررسی آخرین وضعیت «هفت ابتکار راهبردی» که در سازمان او در حال اجراست، استفاده خواهد کرد. تنها با چند اشاره، او از وضعیت هر پروژه و این‌که چند درصد از مزایای مورد انتظار در آن پروژه محقّق شده‌اند مطلع می‌شود. در هر لحظه، منشورهای پروژه (Project Charters) و شاخص‌های کلیدی عملکرد (KPI) در دسترس او هستند، همین‌طور سطح روحیه‌ی هر یک از اعضای تیم پروژه و میزان کلّی رضایت ذی‌نفعان کلیدی.

او به عمق بیشتری از جزئیات «اقدام ابتکاری برای بازسازی نام تجاری سازمان» دسترسی دارد. چند ماه پیش‌تر، یک رقیب بزرگ، یک خط تجاری جدید اصطلاحاً «سبز» راه‌اندازی کرده‌بود که باعث شد شرکت او نیز سرعت پیاده‌سازی راه‌حل‌های مبتنی بر قابلیت‌های پایداری (Sustainability) را افزایش دهد. بر اساس مؤلّفه‌های انتخاب‌شده در زمان آغاز این «اقدام ابتکاری» توسط مدیر پروژه و تیم پروژه، بسیاری از خودتنظیم‌گرهای مبتنی بر هوش مصنوعی از قبل اعمال شده‌اند. این برنامه‌ی کاربردی، مدیر عامل را از هر تغییری که نیاز به توجّه داشته‌باشد – و همچنین مخاطرات بالقوه‌ی ناشی از آن تغییرات – آگاه می‌سازد و تصمیماتی را که او باید اتخاذ نماید اولویت‌بندی کرده و راه‌حل‌های بالقوه را نیز برای هر کدام از آن موضوعات پیشنهاد می‌کند.

مدیر عامل قبل از هر انتخاب یا اقدامی، ابتدا با مدیر پروژه که اکنون بیشتر وقت خود را صرف مربّی‌گری و پشتیبانی از تیمش کرده‌است، ارتباط خود با سهامداران کلیدی را به صورت منظّم حفظ نموده و یک فرهنگ با عملکرد بالا را پرورش داده‌است، تماس می‌گیرد. چند هفته پیش، پروژه دچار اندکی تأخیر شده‌بود و برنامه‌ی کاربردی روی گوشی هوشمند مدیر عامل به او توصیه کرده‌بود که تیم باید از شیوه‌های چابک (Agile) برای سرعت‌بخشیدن به یک رشته‌ی خاص از فعالیت‌ها در پروژه بهره بگیرد.

در طول جلسه، آنها راه‌حل‌های احتمالی را شبیه‌سازی کرده و در خصوص مسیر پیشِ رو به توافق می‌رسند. برنامه‌ی پروژه به طور خودکار به‌روز شده و پیام‌هایی ارسال می‌شوند تا اعضای مرتبط در تیم و ذی‌نفعان پروژه را از تغییرات و پیش‌بینی نتایج مورد انتظار ناشی از آن تغییرات مطّلع نماید.

به لطف فناوری‌ها و روش‌های جدید کاری، یک پروژه‌ی راهبردی که احتمال داشت از کنترل خارج شود – یا شاید حتّی منجر به شکست شود – اکنون دوباره در مسیر صحیح منتج به موفقیت و حصول نتایج مورد انتظار قرار گرفته‌است.

چنانچه به زمان حال بازگردیم، مدیریت پروژه‌ها همواره به همین راحتی‌ها پیش نمی‌رود، اما این آینده‌ای است که آن را برای شما ترسیم کردیم و احتمالاً کوتاه‌تر از یک دهه‌ی دیگر به حقیقت خواهد پیوست. برای اینکه زودتر به آنجا برسیم، سازمان‌ها و نوآوران باید از هم‌اکنون بر روی فناوری‌های مدیریت پروژه سرمایه‌گذاری نمایند.

مدیریت پروژه‌ها در زمان حال و مسیر پیشِ روی آن

هر ساله حدود ۴۸ تریلیون دلار در پروژه‌های مختلف سرمایه‌گذاری می‌شود. با این حال، طبق آمار گروه اِستَندیش (Standish)، تنها ۳۵ درصد از پروژه‌ها موفّق ارزیابی می‌شوند. در ۶۵ درصد دیگر پروژه‌ها میزان هَدررفت منابع و مزایای تحقّق‌نیافته مایه‌ی شگفتی است.

سال‌هاست که در تحقیقات و انتشارات خود، نوسازی روش‌های مدیریت پروژه را ترویج کرده‌ایم. متوجّه شده‌ایم که یکی از دلایلی که موجب نرخ موفقیت بسیار ضعیف در پروژه‌ها است، سطح پایین بلوغ فناوری‌های موجود برای مدیریت آنها است. اکثر سازمان‌ها و رهبران پروژه هم‌چنان از «صفحات گسترده» (Spreadsheets)، اسلایدها و سایر برنامه‌هایی استفاده می‌کنند که در چند دهه‌ی گذشته پیشرفت چندانی نداشته‌اند. شاید این ابزارها برای ارزیابی موفقیت پروژه با اندازه‌گیری نتایج قابل تحویل (Deliverables) و موعدهای مقرّر (Deadlines) کافی باشند، اما این ابزارها در محیطی که پروژه‌ها و اقدامات ابتکاری همواره در حال تطبیق با شرایط جدید هستند و کسب‌وکار به طور مداوم تغییر می‌کند، ناکافی هستند. پیشرفت‌هایی در برنامه‌های مدیریت سبد (پورتفوی) پروژه‌ها حاصل شده‌است، اما هنوز قابلیت برنامه‌ریزی برای ایجاد همکاری‌های بین تیمی، خودکارسازی و بهره‌گیری از ویژگی‌های «هوشمند» وجود ندارد.

اگر در مدیریت پروژه‌ها هوش مصنوعی و سایر نوآوری‌های مبتنی بر فناوری قادر باشند نسبت موفقیت در آنها را تنها تا ۲۵ درصد بهبود بخشند، ارزش و مزایای به‌کارگیری این ابزارها برای سازمان‌ها، جوامع و افراد معادل تریلیون‌ها دلار خواهد بود. تمام هسته‌های فناوری که در داستان بالا شرح داده شدند همین حالا نیز آماده‌ی بهره‌برداری هستند؛ اکنون تنها سؤال این است که با چه سرعتی می‌توان این ابزارها را به طور مؤثّری در مدیریت پروژه‌ها اعمال کرد.

تحقیقات گارتنر (Gartner) نشان می‌دهند که تغییرات به سرعت در راه هستند و پیش‌بینی می‌کنند که تا سال ۲۰۳۰، ۸۰ درصد از وظایف مدیران پروژه توسط هوش مصنوعی که از کلان‌داده‌ها (Big Data)، یادگیری ماشینی (ML) و پردازش زبان طبیعی (NLP) پشتیبانی می‌کند، اجرا خواهند شد. تعدادی از محقّقان، مانند پُل بودریو (Paul Boudreau) در کتاب خود، استفاده از ابزارهای هوش مصنوعی در مدیریت پروژه، و تعداد فزاینده‌ای از شرکت‌های نوپا، مجموعه‌ای از الگوریتم‌ها (خوارزمی‌ها!) را برای به‌کارگیری هوش مصنوعی و یادگیری ماشینی در دنیای مدیریت پروژه توسعه داده‌اند. زمانی که این نسل بعدی از ابزارها به طور گسترده مورد استفاده قرار گیرند، تغییرات اساسی نیز  به وقوع خواهند پیوست.

شش جنبه از مدیریت پروژه که متحوّل خواهند شد

ما پیشرفت‌های فناورانه‌ی پیشِ رو را فرصتی می‌بینیم که هیچ‌گاه وجود نداشته‌اند. آن سازمان‌ها و رهبران پروژه‌ای که بیشترین آمادگی را برای این لحظه‌ی تحوّل‌آفرین دارند، بیشترین پاداش را از آن کسب خواهند کرد. تقریباً تمام جنبه‌های مدیریت پروژه، از برنامه‌ریزی گرفته تا فرایندها و افراد درگیر در پروژه‌ها، تحت تأثیر قرار خواهند گرفت. بیایید نگاهی به این شش حوزه‌ی کلیدی بیندازیم.

۱- انتخاب و اولویت‌بندی بهتر پروژه‌ها

انتخاب و اولویت‌بندی، هر دو مهارت‌هایی از نوع پیش‌بینی هستند: کدام پروژه‌ها بیشترین ارزش را برای سازمان خواهند آفرید؟ چنانچه داده‌های صحیح در دسترس باشند، یادگیری ماشینی قادر است الگوهایی را تشخیص دهد که با روش‌های دیگر قابل تشخیص نیستند و لذا می‌تواند بسیار فراتر از دقّت انسان‌ها در انجام پیش‌بینی‌ها برود. اولویت‌بندی مبتنی بر یادگیری ماشینی به زودی منجر به حصول مزیّت‌های زیر خواهد شد:

– شناسایی سریع‌تر آن دسته از پروژه‌های آماده به کار که پایه و اساس اولیه‌ی یک پروژه را در اختیار دارند
– انتخاب پروژه‌هایی که شانس موفقیت بیشتری دارند و بالاترین آورده را برای سازمان خواهند داشت
– تعادل بهتر در سبد پروژه‌ها و ارائه‌ی نمای اجمالی از وضعیت مخاطرات در سازمان
– حذف سوگیری‌های انسانی از فرایندهای تصمیم‌گیری

۲- پشتیبانی از دفاتر مدیریت پروژه

شرکت‌های نوپا در زمینه‌ی تجزیه‌وتحلیل و خودکارسازی داده‌ها اکنون به سازمان‌ها این یاری را می‌رسانند تا نقش دفاتر مدیریت پروژه (PMO) را ساده و بهینه سازند. معروف‌ترین نمونه‌ی آن، استفاده‌ی رئیس‌جمهور فرانسه امانوئل ماکرون از جدیدترین فناوری برای به‌روز نگاه‌داشتن اطلاعات خود در خصوص تمامی پروژه‌های بخش عمومی فرانسه است. این ابزارهای هوشمند جدید، نحوه‌ی عملیات و عملکرد دفاتر مدیریت پروژه را به طور اساسی در موارد زیر تغییر خواهند داد:

– نظارت بهتر بر پیشرفت پروژه‌ها
– قابلیت پیش‌بینی مشکلات احتمالی و رسیدگی خودکار به برخی از موارد که ساده‌تر هستند
– تهیه و توزیع خودکار گزارش‌های پروژه و جمع‌آوری بازخوردها از مخاطبین
– پیچیدگی بیشتر در انتخاب بهترین روش مدیریت پروژه برای هر پروژه‌ی خاص
– نظارت بر وضعیت انطباق پروژه‌ها با فرایندها و سیاست‌ها
– خودکارسازی کارکردهای پشتیبان، با بهره‌گیری از دستیارهای مجازی پروژه، همچون به‌روزرسانی وضعیت‌ها، ارزیابی مخاطرات و تجزیه‌وتحلیل ذی‌نفعان

۳- تسریع و بهبود در تعریف، برنامه‌ریزی و گزارش‌دهی پروژه‌ها

یکی از حوزه‌های بیشتر توسعه‌یافته برای خودکارسازی مدیریت پروژه، موضوع مدیریت مخاطرات است. برنامه‌های کاربردی جدید از کلان‌داده‌ها و یادگیری ماشینی برای کمک به رهبران و مدیران پروژه برای پیش‌بینی مخاطراتی که در غیر این صورت ممکن بود مورد توجه قرار نگیرند، استفاده می‌کنند. این ابزارها می‌توانند اقداماتی برای تخفیف مخاطرات (Risk Mitigation) پیشنهاد دهند و به زودی خواهند توانست برنامه‌های مدیریت مخاطرات را به طور خودکار به نحوی که موجب جلوگیری از بروز انواع خاصی از مخاطرات شوند، تنظیم نمایند.

رویکردهای مشابه دیگری نیز به زودی تعریف، برنامه‌ریزی و گزارش‌دهی در پروژه‌ها را تسهیل خواهند کرد. در حال حاضر انجام این تکالیف زمان‌بر، تکراری و بیشتر آنها دستی هستند. یادگیری ماشینی، پردازش زبان طبیعی و خروجی متن ساده (Rich text) منجر به دستاوردهای زیر خواهند شد:

– بهبود مدیریت محدوده در پروژه‌ها با خودکارسازی جمع‌آوری و تجزیه‌وتحلیل زمان‌بر دانسته‌های کاربران. این ابزارها مشکلات احتمالی‌ای مانند ابهامات، تکرارها، جا افتادن‌ها، ناهماهنگی‌ها و پیچیدگی‌ها را آشکار می‌سازند.
– ابزارهایی برای تسهیل فرایندهای زمان‌بندی و پیش‌نویسی برنامه‌های تفصیلی و مدیریت تقاضا برای تخصیص منابع در پروژه‌ها
– گزارش‌دهی خودکار به نحوی که نه تنها گزارشات با کار کمتری تولید خواهند شد، بلکه اطلاعات موجود در گزارش‌های امروزی، که اغلب چندین هفته قدیمی هستند، با داده‌های بی‌درنگ جایگزین می‌شوند. همچنین این ابزارها عمیق‌تر از آنچه که اکنون امکانش وجود داشته باشد در داده‌ها کنکاش خواهند کرد و وضعیت پروژه‌ها، مزایای به‌دست‌آمده، لغزش‌های احتمالی و احساسات درون‌تیمی را به روشی واضح و عینی نشان می‌دهند.

۴- دستیاران مجازی پروژه

در عمل چَت‌جی‌پی‌تی (ChatGPT) یک شبه درک جهان را نسبت به آنکه چگونه هوش مصنوعی قادر است مجموعه‌ای از داده‌ها را تجزیه‌وتحلیل نموده و بینش‌های جدید و آنی را در قالب خروجی متن ساده تولید کند، تغییر داد. ابزارهایی از این دست در مدیریت پروژه‌ها، به «ربات‌ها» یا «دستیاران مجازی» قدرت می‌بخشند. اوراکل (Oracle) اخیراً دستیار دیجیتالی مدیریت پروژه‌ی جدیدی را معرفی کرده‌است که امکان به‌روزرسانی آنی وضعیت‌ها در پروژه را ارائه می‌دهد و به کاربران کمک می‌کند تا زمان و پیشرفت کارها را از طریق متن، صدا یا گَپ (Chat) به‌روزرسانی نمایند.

این دستیار دیجیتالی از داده‌های قبلی واردشده برای ثبت زمان‌ها، داده‌های برنامه‌ریزی پروژه و زمینه‌ی کلی پروژه یاد می‌گیرد تا تعاملات را تنظیم کرده و اطلاعات حیاتی پروژه را به‌طور هوشمندانه ثبت نماید. پی‌موتو (PMOtto) یک دستیار مجازی پروژه با قابلیت یادگیری ماشینی است که در حال حاضر نیز استفاده می‌شود. یک کاربر می‌تواند از پی‌موتو بخواهد: «برنامه‌ی جان (John) را برای نقاشی دیوارها در هفته آینده تنظیم کن و او را تمام وقت به این کار تخصیص بده». دستیار ممکن است پاسخ دهد، «بر اساس وظایف مشابه قبلی که به جان اختصاص داده شده‌اند، به نظر می‌رسد که او برای انجام کار به دو هفته زمان نیاز داشته باشد و نه یک هفته آنطور که شما درخواست کردید. آیا باید آن را تنظیم کنم؟»

۵- سامانه‌ها و نرم‌افزارهای پیشرفته برای آزمون نتایج

آزمون نتایج تحویل‌دادنی یکی دیگر از وظایف ضروری در اکثر پروژه‌ها هستند و مدیران پروژه مجبور هستند این آزمون‌ها را با سرعت و تداوم انجام دهند. امروزه به ندرت می‌توان پروژه‌ای بزرگ را یافت که فاقد چندین سامانه و انواع نرم‌افزارهایی باشد که باید قبل از تحویل پروژه آزمایش شوند. به زودی و به‌طور گسترده، سامانه‌های پیشرفته‌ی آزمون که اکنون فقط برای پروژه‌های بزرگ قابل استفاده هستند، بیشتر در دسترس خواهند بود.

خط ریلی الیزابت که بخشی از پروژه‌ی کراس‌ریل (Crossrail) در بریتانیا است، یک راه‌آهن پیچیده با ایستگاه‌های جدید، زیرساخت‌های جدید، مسیرهای جدید و قطارهای جدید است. بنابراین، مهم است که تک‌تک عناصر پروژه از یک فرایند آزمون و راه‌اندازی دقیق برای اطمینان از ایمنی و قابلیت اطمینان‌پذیری در آنها، عبور داده شوند. این عملیات به ترکیبی از سخت‌افزارها و نرم‌افزارهایی که قبلاً وجود نداشتند نیاز داشت و پس از چالش‌های اولیه، تیم پروژه «تأسیسات یکپارچه‌سازی کراس‌ریل» را توسعه داد. این تأسیسات آزمون کاملاً خودکار که خارج از سایت پروژه قرار دارد، اکنون ثابت کرده‌است که چه ارزش غیرقابل اندازه‌گیری‌ای در افزایش کارایی، به‌صرفه‌سازی و انعطاف‌پذیری سامانه‌ها داشته‌است. مهندس این سامانه، اَلِساندرا شول-اِستِرنبرگ (Alessandra Scholl-Sternberg) برخی از ویژگی‌های آن را این‌گونه شرح می‌دهد: «کتابخانه‌ی گسترده‌ای از خودکارسازی سامانه‌ها نوشته شده‌است که امکان دستیابی به تنظیمات پیچیده، انجام دقیق بررسی‌های سلامت، انجام آزمون‌های استقامتی در دوره‌های طولانی و اجرای آزمون‌هایی با ماهیت تکراری را فراهم می‌سازند.» در این مرکز ، امکان انجام ممیزی‌های دقیق به‌صورت ۲۴×۷ بدون نگرانی از مخاطرات و تأثیر ناشی از سوگیری کاربران سامانه وجود دارد.

به زودی، راه‌حل‌های پیشرفته و خودکار برای انجام آزمون سامانه‌ها در پروژه‌های نرم‌افزاری، امکان تشخیص زودهنگام عیوب و اجرای فرایندهای خوداصلاح‌گر را فراهم می‌سازند. این امر زمان صرف‌شده برای فعالیت‌های دست‌وپاگیر در آزمون‌ها را به میزان قابل توجهی کاهش می‌دهد، تعداد دوباره‌کاری‌ها را کم می‌کند و در نهایت راه‌حل‌هایی با کاربری آسان و بدون اشکال ارائه می‌دهد.

۶- یک نقش جدید برای مدیران پروژه

ممکن است خودکارسازیِ بخش قابل توجهی از وظایف فعلی مدیران پروژه، برای بسیاری از آنها ترسناک باشد، اما افراد موفّق یاد خواهند گرفت که از این ابزارها به نفع خود استفاده نمایند. مدیران پروژه حذف نخواهند شد، بلکه مجبور خواهند شد این تغییرات را بپذیرند و از فناوری‌های جدید بهره ببرند. ما در حال حاضر تیم‌های چندتخصّصی در پروژه‌ها را با ترکیبی متشکّل از افراد مختلف می‌شناسیم، اما ممکن است به زودی آنها را به شکل گروه‌هایی متشکّل از انسان‌ها و ربات‌ها در کنار یکدیگر ببینیم.

در آینده مدیران پروژه با دور شدن از کارهای اداری، باید مهارت‌های قوی نرم، قابلیت‌های رهبری، تفکّر راهبردی و هوش تجاری را در خود پرورش دهند. آنها باید بر حصول منافع مورد انتظار و هم‌سویی آن منافع با اهداف راهبردی سازمان تمرکز نمایند. همچنین آنها به یک درک خوب از این فناوری‌ها نیاز خواهند داشت. برخی از سازمان‌ها در حال حاضر نیز هوش مصنوعی را در برنامه‌های آموزشی و صدور گواهینامه‌های مدیریت پروژه‌ی خود وارد کرده‌اند؛ دانشگاه نورث‌ایسترن (Northeastern University) هوش مصنوعی را در برنامه‌های آموزش خود گنجانده است و به مدیران پروژه آموزش می‌دهد که چگونه از هوش مصنوعی برای خودکارسازی و بهبود مجموعه‌ی داده‌ها و بهینه‌سازی ارزش سرمایه‌گذاری در پروژه‌ها استفاده نمایند.

داده‌ها و انسان‌ها به آینده واقعیت می‌بخشند

چگونه می‌توانید اطمینان داشته‌باشید، زمانی که این ابزارها برای استفاده در سازمان‌ها به آمادگی کافی برسند، سازمان شما نیز آمادگی لازم برای استفاده از آنها را خواهد داشت؟ هر فرایند پذیرش فناوری‌های هوش مصنوعی در سازمان با آماده‌سازی داده‌ها آغاز می‌شود، اما شما نباید نسبت به آماده‌سازی افراد تیم خود نیز کوتاهی نمایید.

آموزش الگوریتم‌های هوش مصنوعی برای مدیریت پروژه‌ها به مقادیر زیادی داده‌های مرتبط با پروژه احتیاج دارد. شاید سازمان شما مجموعه‌ای از داده‌های تاریخی پروژه‌ها را حفظ کرده‌باشد، اما به احتمال زیاد این داده‌ها در هزاران سند در قالب‌های مختلف پراکنده هستند و در سامانه‌های متعدّد ذخیره‌سازی شده‌اند. این اطلاعات ممکن است قدیمی باشند، ممکن است از طبقه‌بندی‌های مختلف استفاده کرده‌باشند، یا حاوی داده‌های بی‌ربط و یا شکاف‌هایی در داده‌های اصلی باشند. تقریباً 8۰ درصد از زمان صرف‌شده برای آماده‌سازی الگوریتم‌های یادگیری ماشینی بر روی جمع‌آوری و پاک‌سازی داده‌ها تمرکز دارد که طی آن، داده‌های خام و بدون ساختار به داده‌های ساختاریافته‌ای تبدیل می‌شوند که قادر هستند یک مدل یادگیری ماشینی را آموزش دهند.

هرگز تحوّل هوش مصنوعی در سازمان شما بدون وجود داده‌های در دسترس و داده‌های مدیریت‌شده‌ی مناسب اتفاق نخواهد افتاد؛ اما اگر خود و تیم‌تان را برای تغییر آماده نکنید‌ نیز هیچ تحوّلی در هوش مصنوعی شکوفا نخواهد شد.

این نسل جدید از ابزارها نه تنها فناوری‌هایی را که ما در مدیریت پروژه‌ها استفاده می‌کنیم تغییر می‌دهند، بلکه کار ما را نیز به کلی در پروژه‌ها متحوّل خواهند کرد. مدیران پروژه باید برای مربّی‌گری و آموزش تیم‌های خود جهت انطباق با این انتقال آماده باشند. آنها باید تمرکز خود را بر روی تعاملات انسانی افزایش دهند و در عین حال کاستی‌های مهارتی فناورانه را در افراد خود شناسایی کرده و برای رفع آنها تلاش نمایند. مدیران پروژه باید علاوه بر تمرکز بر نتایج تحویل‌دادنی در پروژه‌ها، بر ایجاد تیم‌هایی با عملکرد بالا نیز تمرکز نمایند، به گونه‌ای که اعضای تیم آنچه را که به آنها اجازه می‌دهد بهترین عملکرد را از خود نشان دهند، در اختیار دارند.

اگر به طور جدی در حال بررسی استفاده از هوش مصنوعی در پروژه‌ها و شیوه‌های مدیریت پروژه‌ی خود هستید، سؤالات زیر به شما کمک می‌کنند تصمیم خود را بهتر ارزیابی نمایید؛

– آیا این آمادگی را دارید تا برای تهیه فهرست دقیقی از تمام پروژه‌های در اختیار خود، از جمله آخرین وضعیت به‌روزشده در آنها، زمان صرف نمایید؟
– آیا قادر هستید بخشی از منابع خود را چندین ماه برای جمع‌آوری، پاک‌سازی و ساختارمندسازی داده‌های موجود در پروژه‌های خود اختصاص دهید؟
– آیا تصمیم خود را گرفته‌اید که عادات قدیمی مدیریت پروژه‌ی خود را از جمله گزارش‌های پیشرفت ماهانه کنار بگذارید؟
– آیا آماده‌ی سرمایه‌گذاری در آموزش مجموعه‌ی مدیریت پروژه‌ی خود برای استفاده از این فناوری‌های جدید هستید؟
– آیا آنها نیز تمایل دارند از مناطق سنّتی آسایش خود خارج شوند و نحوه‌ی مدیریت پروژه‌های خود را به طور اساسی تغییر دهند؟
– آیا سازمان شما آماده‌ی پذیرش و به‌کارگیری یک فناوری جدید و واگذاری کنترل تصمیمات به مراتب مهم‌تر به آن است؟
– آیا حاضر هستید اجازه دهید که این فناوری مرتکب اشتباه نیز بشود تا یاد بگیرد که برای سازمان شما چگونه عملکرد بهتری داشته باشد؟
– آیا حامی اجرایی در این پروژه، توانایی و اعتبار لازم در سازمان شما را دارد تا رهبری این تحوّل را در دست بگیرد؟
– آیا رهبران ارشد مایل هستند چندین ماه تا یک سال، منتظر بمانند تا مزایای خودکارسازی را مشاهده نمایند؟

اگر پاسخ به همه‌ی این سوالات مثبت است، پس شما آماده‌ی شروع این تحوّل پیشگام هستید. اگر یک یا چند پاسخ «نه» دارید، باید قبل از حرکت آنها را به سمت «بله» سوق دهید.

•••

همانطور که دیدیم، استفاده از هوش مصنوعی در مدیریت پروژه‌ها مزایای قابل توجهی را به همراه خواهد داشت، نه تنها در خودکارسازی وظایف اداری و کم‌ارزش، بلکه مهمتر از آن، هوش مصنوعی و سایر فناوری‌های مخرّب در جعبه‌ی ابزار شما از جمله به سازمان شما کمک می‌کنند رهبران و مدیران پروژه، پروژه‌ها را با موفقیت بیشتری انتخاب، تعریف و اجرا نمایند.

مدیر عامل داستان ما زمانی در موقعیتی قرار داشت که شما امروز در آن قرار گرفته‌اید. ما شما را تشویق می‌کنیم که از هم‌اکنون اولین گام‌ها را به سمت این چشم‌انداز مثبت از آینده‌ی مدیریت پروژه بردارید.

 

درباره‌ی نگارندگان

آنتونیو نیتو رودریگز (Antonio Nieto-Rodriguez) نویسنده‌ی کتاب راهنمای مدیریت پروژه هاروارد بیزینس ریویو (Harvard Business Review) ، مقاله‌ی زمان اقتصاد پروژه رسیده است HBR (The Project Economy Has Arrived) و پنج کتاب دیگر است. تحقیقات و تاثیرات جهانی آثار او بر مدیریت مدرن توسط تینکرز۵۰ (Thinkers50) به رسمیت شناخته شده‌اند. آنتونیو پیش‌رو در آموزش و مشاوره‌ی هنر و علم پیاده‌سازی راهبردها و مدیریت مدرن پروژه‌ها به مدیران اجرایی، استاد مدعو در هفت مدرسه‌ی تجاری پیش‌رو است. او بنیان‌گذار پراجکتس‌اَندکو (Projects&Co) و مؤسّسه‌ی پیاده‌سازی راهبردها (Strategy Implementation Institute) است. می‌توانید آنتونیو را از طریق تارنمای او، خبرنامه‌ی لینکدین او با عنوان پروژه‌ها را با موفقیت رهبری کنید (Lead Projects Successfully) و دوره‌ی آنلاین او بازاختراع مدیریت پروژه برای مدیران غیر پروژه‌ای (Project Management Reinvented for Non–Project Managers) دنبال نمایید.

دکتر ریکاردو ویانا وارگاس (Ricardo Viana Vargas)، بنیان‌گذار و مدیر عامل ماکروسُلوشنز (Macrosolutions)، یک شرکت مشاوره‌ی بین‌المللی در حوزه‌ی انرژی، زیرساخت، فناوری اطلاعات، نفت و امور مالی است. او بیش از ۲۰ میلیارد دلار پروژه‌های بین‌المللی را در 25 سال گذشته مدیریت کرده است. ریکاردو، برایت‌لاین اینشیتیو (Brightline Initiative) را از سال ۲۰۱۶تا ۲۰۲۰ایجاد و رهبری کرد و مدیر زیرساخت‌‌ها و تیم مدیریت پروژه‌ها در سازمان ملل متحد بود و بیش از 1000 پروژه بشردوستانه و توسعه‌ای را رهبری کرد. او ۱۶ کتاب در این زمینه نوشته‌است و میزبان «پادکست ۵ دقیقه‌ای» است که تا کنون به آمار ۱۲ میلیون بازدید رسیده‌است.

منتشر شده در وب‌سایت Harvard Business Review
برگردان توسط حامد معین‌فر
در شرکت مهندسین فناور پندار آریا – پنداریا

صنعت مرکز داده در ایران چه جایگاهی در تناسب با روندهای جهانی در سال ۲۰۲۳ خواهد داشت؟

عنوان اصلی مقاله: Where Will the Iranian Data Center Industry Stand Relative to 2023 Global Trends?
تاریخ انتشار و نویسنده: By Hamed Moinfar – Jan. 24, 2023
وب‌سایت منتشر کننده: LinkedIn
 لینک اصلی مقاله

تصویر تولیدشده در دال.ای ۲ (Dall.E 2) توسط اُپن‌اِی‌آی (OpenAI)

 

پس از بازنشر مقاله‌ای از ریچ میلر (Rich Miller) با عنوان «هشت روندی که صنعت مرکز داده را در سال ۲۰۲۳ شکل خواهند داد» توجه ما به جایگاه عجیب صنعت مرکز داده در ایران در تناسب با روندهای پیش‌بینی‌شده در جهان جلب شد. مقاله حاضر دیدگاه و نظرات نگارنده در خصوص جایگاه صنعت مرکز داده در ایران در تناسب با آن روندهای جهانی می‌باشد.

صرفاً برای درک بهتر فضای بحث، در اینجا عناوین هشت روند مشخص‌شده در مقاله‌ی اصلی مجدداً یادآوری می‌شوند:

  • عرضه و تقاضا با محدودیت و تأخیر روبرو می‌شوند
  • ابزارهای هوش مصنوعی مولّد، به عنوان تغییردهنده‌ی بازی ظاهر می‌شوند
  • صنعت مرکز داده با مشکلات خود در حوزه‌ی روابط عمومی روبرو می‌شود
  • حرکت به سوی طراحی بدون آب، هر کجا که امکانش وجود داشته باشد
  • برای اَبَرمقیاس‌های گرسنه، امسال سالی برای هضم است
  • رونق در بازارهای ثانویه از ابر تا لبه ادامه خواهد یافت
  • مراکز داده‌ی بیشتری از «تولید برق در محل» استقبال می‌کنند
  • بازاندیشی در ریزش مشتریان: یک تهدید به یک فرصت تبدیل می‌شود

توصیه می‌کنم مقاله‌ی اصلی را در دیتاسنتر فرانتیر (Data Center Frontier) یا ترجمه‌ی آن را در پنداریا (Pendaria) مطالعه بفرمایید. پس از اندکی تحقیق و جمع‌آوری افکارم، اکنون خوشحال هستم که نظرات خود را در خصوص این موضوع و این که صنعت مرکز داده در ایران چگونه با روندهای فوق انطباق خواهد داشت، به اشتراک بگذارم؛

۱- عرضه و تقاضا با محدودیت و تأخیر روبرو می‌شوند

ایران نیز محدودیت‌ها و تأخیرهای در سمت عرضه و تقاضا را تجربه خواهد کرد، اما احتمالاً نه به دلایلی که در مقاله‌ی اصلی ذکر شده‌اند، بلکه به دلیل سایر عوامل سیاسی و اقتصادی آشکار.

این یک مانع جدید برای صنعت فناوری اطلاعات در ایران نیست، اما با کاهش بیش از پیش سرمایه‌گذاری‌های جدید و افزایش هزینه‌ها در سمت عرضه، فشار بر این صنعت و بر زیرساخت‌های فعلی مطمئناً افزایش خواهد یافت.

۲- ابزارهای هوش مصنوعی مولّد، به عنوان تغییردهنده‌ی بازی ظاهر می‌شوند

ایران در حال حاضر از فضای هوش مصنوعی بسیار دور است و بنابراین مراکز داده‌ی ایرانی بار کاری عمده‌ای که مرتبط با هوش مصنوعی باشد تجربه نخواهند کرد، چرا که هیچ مرکز داده‌ای که میزبان زیرساخت‌هایی از این دست و با توان محاسباتی مورد نیاز باشد، ایجاد نشده‌است. لذا نمی‌توان رشدی در سرمایه‌گذاری که تنها با همین هدف برنامه‌ریزی و محقق شده‌باشد، مشاهده نمود.

اگر بخواهم فقط یک حدس بزنم، احتمالاً استخراج رمزارزها همچنان در سال ۲۰۲۳ برای ایران یک عامل بسیار بزرگتر از روندهای جدیدتر مانند هوش مصنوعی (AI) و یادگیری ماشینی (ML) در تعیین شرایط سرمایه‌گذاری و توسعه‌ی زیرساخت‌ها خواهد بود.

۳- صنعت مرکز داده با مشکلات خود در حوزه‌ی روابط عمومی روبرو می‌شود

روابط عمومی مراکز داده و همه‌ی جنجال‌های رایج پیرامون آن‌ها، در ایران به اندازه‌ی سایر نقاط جهان مشکل‌ساز نخواهند بود. این به این دلیل است که هزینه‌های انرژی در ایران بسیار کمتر از هزینه‌های بین‌المللی بوده و نمی‌تواند در اولویت ذهنی جامعه قرار بگیرد. همچنین، هیچ مبنای محکم قانونی یا مقرراتی وجود ندارد که لزوم به رعایت پارامترهای منجر به پایداری محیطی (Environmental Sustainability) احساس شود.

متأسفانه، عموم مردم نیز درگیر مسائل بسیار اساسی‌تر دیگری در زندگی روزمره خود هستند و توجه به مسائل زیست‌محیطی در اولویت‌های آنها نیست.

۴- حرکت به سوی طراحی بدون آب، هر کجا که امکانش وجود داشته باشد

در موضوع حرکت به سوی طرح‌های غیرمبتنی بر مصرف آب، ایران چندین سال است که با خشکسالی شدید مواجه بوده و به همین دلیل خوشبختانه هم‌اکنون نیز از این نقطه‌ی عطف عبور کرده‌است. همانطور که می‌دانید اکثر تأسیسات خنک‌کننده در مراکز داده در ایران از نوع چیلرهای هواخنک هستند و از سامانه‌های آب سرد مدار بسته که مجهز به فناوری‌های خنک‌سازی آزاد سمت آب (Water-side free cooling) هستند، استفاده می‌کنند.

اگر بخواهیم به ارتقای وضعیت کنونی بیندیشیم، باید تأکید خود را بیشتر بر انتخاب مناسب مکان‌های سردسیرتر در کشور برای احداث مراکز داده و استفاده از فناوری‌های خنک‌سازی آزاد سمت هوا (Air-side free cooling) در آن مکان‌ها قرار دهیم.

۵- برای اَبَرمقیاس‌های گرسنه، امسال سالی برای هضم است

در حال حاضر هیچ مرکز داده‌ی اَبَرمقیاسی در ایران وجود ندارد و حتی مراکز داده با تراکم‌های متوسط نیز ​​متعلق به شرکت‌ها و سازمان‌ها بوده و در اختیار ارائه‌دهندگان فضاهای هم‌مکانی یا خدمات ابری قرار ندارند.

با بیان این مطلب، باید در نظر داشت که بر خلاف تصوّر عمومی و حتی بر خلاف جهت کاهشی سرمایه‌گذاری در زیرساخت‌های مرکز داده در سال‌های اخیر، در حال حاضر اکثر فعالیت‌های روزمره در ایران به خدمات مبتنی بر اینترنت وابسته هستند و جای تعجّب نخواهد داشت اگر در آینده‌ای نزدیک شاهد بروز کاستی‌ها و تحمّل افت کیفیت در ارائه‌ی این خدمات باشیم.

۶- رونق در بازارهای ثانویه از ابر تا لبه ادامه خواهد یافت

با وجود تلاش‌های صورت‌گرفته، صنعت مرکز داده در ایران هنوز به یک سلسله مراتب بالغ و سالم متشکل از زیرساخت‌های ملی، منطقه‌ای، محلّی و در لبه متصل نشده‌است. این در کنار آنچه قبلاً مورد بحث قرار گرفت، هیچ چشم‌انداز روشنی از وجود ظرفیت قابل اتکاء در بازارهای ثانویه نمایش نمی‌دهد.

۷- مراکز داده‌ی بیشتری از «تولید برق در محل» استقبال می‌کنند

جالب اینجاست که اگرچه به ارزان‌بودن انرژی در ایران اشاره کردیم، اما به دلیل سرمایه‌گذاری ناکافی در شبکه‌ی سراسری برق در سال‌های اخیر، گزینه‌ی تولید برق مورد نیاز در محل برای بسیاری از صنایع از جمله مراکز داده رایج شده‌است. همچنین، شرکت توزیع برق متعلّق به دولت نیز خود بر روی تولید برق در محل تاکید دارد و حتی در بسیاری از شرایط پیشنهاد بازخرید ظرفیت اضافی را می‌دهد.

اما نباید فراموش کرد که این رویکرد ممکن است در درون خود مشکلات دیگری را به همراه داشته باشد، مانند کمبود بنزین و گاز طبیعی در فصول سرد که ممکن است منجر به خاموشی‌های برنامه‌ریزی‌نشده شود.

۸- بازاندیشی در ریزش مشتریان: یک تهدید به یک فرصت تبدیل می‌شود

در ایران همواره و حتی بیشتر از آن چیزی که هر کسی فکرش را بکند، همیشه از ظرفیت‌های فضای خالی در مراکز داده استقبال می‌شود. همانطور که قبلاً نیز گفته شد، ایران در حال تجربه‌ی یک بازار با تقاضای بالا در صنعت مرکز داده است که اتفاقاً سرمایه‌گذاری کمی در آن انجام شده‌است.

کاربران بیش از هر زمان دیگری به فناوری اطلاعات متّکی شده‌اند و حتی در شرایط سخت سیاسی فعلی نیز تقاضا همچنان در حال افزایش است. به همین نسبت، بهره‌برداران مراکز داده و ارائه‌دهندگان خدمات مبتنی بر اینترنت نیز تحت فشار قرار دارند. همه‌ی ما حداقل یک تماس را در تجربه‌ی خود داشته‌ایم که یک مدیر فناوری اطلاعات در پشت خط از شما سوال می‌پرسد که آیا ظرفیت خالی در هر مرکز داده‌ای برای اجاره توسط شرکت آنها سراغ دارید.

این تقاضا می‌تواند از دَه‌ها تا صدها رَک متغیر باشد، اما همواره پاسخ یکسان است: متأسفانه خیر!

منتشر شده در  وب‌سایت LinkedIn
برگردان توسط حامد معین‌فر
در شرکت مهندسین فناور پندار آریا – پنداریا