بایگانی برچسب برای: فناوری

هدایت چشم‌انداز در حال تغییر در امنیت مراکز داده

عنوان اصلی مقاله: Navigating The Changing Landscape In Data Center Security
تاریخ انتشار و نویسنده: by Tim Liu, Jun 28, 2023
وب‌سایت منتشر کننده: Forbes
 لینک اصلی مقاله

امنیت مراکز داده

گِتی (Getty)

این گونه به نظر می‌رسد که نرخ نوآوری‌ها در فناوری – و بدافزارها – سریع‌تر از هر زمان دیگر در حال رشد است. مدیران عامل (CEOs)، مدیران ارشد مالی (CFOs)، مدیران ارشد امنیت (CSOs) و سایر کسانی که مسؤول حفاظت از داده‌ها – یعنی باارزش‌ترین دارایی‌های یک شرکت – هستند، باید در رأس هرم پیشرفت‌های کلیدی باقی بمانند تا قادر باشند با چشم‌انداز در حال تغییر حوزه‌ی امنیت همگام شوند.

ما در حال مشاهده‌ی سه روند کلیدی در این حوزه هستیم که تلاش‌ها برای برقراری امنیت دسترسی در مراکز داده را در زمان حال و آینده شکل خواهند داد: ظهور هوش مصنوعی (AI) و یادگیری ماشین (ML)، پذیرش فزاینده‌ی اصول اعتماد صفر (Zero-trust principles) و نیاز به امنیتی که بتواند محیط‌های چنداَبری (Multi-cloud environments) را در بر بگیرد.

بهره‌گیری از هوش مصنوعی و یادگیری ماشینی برای افزایش امنیت

هوش مصنوعی و یادگیری ماشینی برای سال‌های متوالی در صنایع و سناریوهای متعدد مورد استفاده قرار گرفته‌اند، اما اخیراً با انتشار چَت‌جی‌پی‌تی (ChatGPT) و ابزارهای مصرفی مشابه دیگر، توانسته‌اند تخیّل عموم را به خود جلب نمایند. در حوزه‌ی امنیت مرکز داده، هوش مصنوعی و یادگیری ماشینی به ویژه برای تقویت سازوکارهای دفاعی، شناسایی ناهنجاری‌ها و شاخص‌های خطر و پاسخ‌دهی خودکار به تهدیدات نوظهور مناسب هستند.

به عنوان نمونه، اِی‌آی و اِم‌اِل قادر هستند با سرعتی بالا مجموعه‌ی داده‌های جمع‌آوری‌شده از گزارش‌ها (Logs) و جریان‌های دیگر اطلاعاتی را برای شناسایی تهدیدات احتمالی، حملات یا سوء‌استفاده از داده‌های شرکت و همچنین پیش‌بینی خطرات و آسیب‌پذیری‌های احتمالی تجزیه و تحلیل کنند. با استفاده از این شیوه‌ها می‌توان با خُرد کردن بسیار سریع حجم عظیمی از داده‌ها، به تیم‌های امنیتی کمک کرد که با توجه به مشغولیت‌های بیش از حد خود از بسیاری از کارهای دستی خسته‌کننده خلاص شوند.

علاوه بر این، آنها قادر هستند نرخ شناسایی کدهای مخرّب (Exploits) کوچک‌تر اما اغلب خطرناک‌تری مانند تهدیدات مستمر پیشرفته (APTs: Advanced persistent threats)، حملات روز صفر (Zero-day attacks) و تهدیدات داخلی را افزایش دهند. همچنین «جامعه‌ی بین‌الملل امنیت صنعتی» یا اَسیس اینترنشنال (ASIS International) خاطرنشان می‌کند: «این امکان وجود دارد که از ابزارهای هوش مصنوعی و یادگیری ماشینی برای کمک به تشخیص تهدیدها قبل از آنکه به بتوانند به سامانه‌ها آسیب برسانند و یا در جمع‌آوری داده‌های جرم‌شناسی برای کمک به واکنش در برابر حوادث و بازیابی از آنها استفاده کرد.»

با این حال، مشابه آنچه در همتایان هوش مصنوعی در رده‌ی مصرف‌کننده دیده می‌شود، ممکن است هوش مصنوعی و یادگیری ماشینی در امنیت مرکز داده نیز منجر به نتایج مثبت کاذب (False positives) شوند و در معرض سوگیری (Bias) قرار بگیرند. با «آموزش» زیرسیستم‌های هوش مصنوعی امنیتی (Security AI) در زمان برقراری تعاملات عادی ترافیکی در مرکز داده و نیز از طریق فنون دیگر، می‌توان دقت و اثربخشی را بهبود بخشید و آنها را با محیط، متناسب ساخت.

هوش مصنوعی و/یا یادگیری ماشینی در انواع فناوری‌های امنیت سایبری از جمله فایروال‌های نسل بعدی (Next-gen firewalls) و مدیریت اطلاعات و رویدادهای امنیتی (SIEM) و همچنین نمونه‌های جدیدتر معرفی‌شده در سکّوهای حفاظت از بارهای کاری ابری (Cloud workload protection)  تعبیه شده‌اند.

کنترل کردن دسترسی: زِدتی‌اِن‌اِی (ZTNA)

در حالی که هوش مصنوعی و یادگیری ماشینی اغلب برای تقویت امنیت «در داخل» مراکز داده استفاده می‌شوند، باید توجه داشت که کنترل اینکه «چه کسی» و «چه چیزی» ممکن است به منابع حیاتی دسترسی داشته باشد نیز حداقل به همان اندازه اهمیت دارد، اگر که حتی اهمیت آن بیشتر نباشد. در نتیجه، مدیران مراکز داده به طور فزاینده‌ای در حال اتخاذ رویکرد دسترسی شبکه با اعتماد صفر یا زِدتی‌اِن‌اِی (ZTNA) هستند که در آن با هر کاربر، دستگاه و یا تعامل، با دید بالقوه مخرّب رفتار می‌شود.

با زِدتی‌اِن‌اِی، تمام تلاش‌ها برای برقراری دسترسی به شبکه تنها پس از پایان عملیات کامل احراز هویت (Authentication) و تجویز دسترسی (Authorization) در سطح چندین عامل تأیید می‌شوند، و حتی همین دسترسی نیز فقط برای منابع مشخص بر اساس آگاهی زمینه‌ای از آن درخواست و «اصول حداقل امتیاز» اعطاء می‌شود. این فرایند در طول نشست به طور مستمر ادامه پیدا می‌کند تا هرگونه تغییر در وضعیت امنیتی یا سایر شاخص‌های تهدید را شناسایی نماید.

اصول اعتماد صفر در تضاد مستقیم با شبکه‌های خصوصی مجازی (VPN) هستند که معمولاً دسترسی را به تمام یک شبکه یا زیرشبکه (Subnet) باز می‌کنند. همچنین وی‌پی‌اِن‌ها به گونه‌ای طراحی شده‌اند که فقط یک بار در شروع نشست هویت کاربران را احراز و مجوز صادر می‌کنند و اغلب از یک سامانه‌ی ورود یکپارچه (SSO: Single Sign-On) برای اعطای دسترسی به طیف گسترده‌ای از خدمات، برنامه‌ها و داده‌ها استفاده می‌کنند.

«دسترسی شبکه با اعتماد صفر» با فلسفه‌ای که برای خود دارد می‌تواند سطح در معرض حمله را کاهش دهد و حتی از حرکات عرضی تهدیدات در مرکز داده جلوگیری نماید؛ مشخصاً «شبکه‌های ربات‌های آلوده» یا بات‌نت‌ها (Botnets)، باج‌افزارها (Ransomwares) و تهدیدهای مشابه دیگر. همچنین قادر است میدان دید را در کل محیط‌های شبکه‌ی فیزیکی و ابری برای پاسخ سریع‌تر به تهدیدات و همچنین ارائه‌ی مدیریت یکپارچه و مقیاس‌پذیری آسان‌تر گسترش دهد.

با این حال، اتخاذ رویکرد زِدتی‌اِن‌اِی (ZTNA) می‌تواند نسبتاً گران باشد و پیکربندی و مدیریت آن نیز اغلب پیچیده است. علاوه بر این، بر محیط پیرامونی تمرکز دارد و معمولاً قادر نیست حملات یا ناهنجاری‌ها را تشخیص دهد. بنابراین همچنان فناوری‌های امنیتی مضاعفی همانند آنچه در بالا ذکر شدند، مورد نیاز خواهند بود.

ایمن‌سازی محیط‌های چنداَبری

سومین روند کلیدی که در امنیت مراکز داده شاهد آن هستیم، گسترش استقرارهای چنداَبری و چالش‌های حفاظت از داده‌ها و برنامه‌ها در این سکّوهای متنوع است. مدیران مراکز داده به طور فزاینده‌ای در حال اتخاذ راهبردهای چنداَبری در جهت افزایش تاب‌آوری و اطمینان‌پذیری داده‌ها و خدمات، اجتناب از وابستگی مالکانه به فروشندگان، کاهش هزینه‌ها و سایر ملاحظات هستند.

با این حال، مراکز داده‌ای که یک محیط چنداَبری را به کار می‌گیرند، سطح در معرض حمله‌ی بسیار وسیع‌تری را نیز در دسترس قرار می‌دهند که منجر به پیچیدگی در عملیات شبکه و امنیت سایبری می‌شود. بنابراین، حفظ میدان دید و کنترل گسترده به یک ملاحظه‌ی کلیدی در طراحی و مدیریت این معماری‌ها تبدیل می‌شود.

برای مثال، سیاست‌ها و کنترل‌های امنیتی باید در سطح تمام ابرها پیاده‌سازی شوند و باید به طور منظم نگهداری و به‌روز نگاه داشته شوند. اغلب، یک سکّوی متمرکز که به گره‌ها یا نودهای (Nodes) محلّی وصل است، قادر است میدان دید و قابلیت پایش و مدیریت مرکزی وضعیت امنیت سایبری را در سراسر محیط چنداَبری فراهم کند. همچنین ممکن است این خدمات یا دستگاه‌ها در جهت ساده‌سازی عملیات، امکاناتی برای خودکارسازی و هماهنگ‌سازی ارائه دهند و در عین حال خطر وقوع خطاهای انسانی را به حداقل برسانند.

علاوه بر این، رمزنگاری داده‌ها – چه در حالت ذخیره و چه در حالت انتقال – می‌تواند وضعیت امنیتی را بیشتر تقویت کند و زِدتی‌اِن‌اِی قادر است محیط پیرامونی را بدون توجه به موقعیت فیزیکی آن، امن سازد.

خلاصه

همچنان که فناوری‌های امنیتی مراکز داده و چشم‌انداز تهدیدات تکامل می‌یابند، این بسیار حیاتی است که با چالش‌های نوظهور سازگار شویم. در حال حاضر این سه روند کلیدی در صدر توجه بسیاری از مدیران ارشد امنیت و سایرینی که مسؤول امنیت مراکز داده و داده‌های حساس موجود در آنها هستند، قرار گرفته‌اند. این و سایر پیشرفت‌ها می‌توانند تاب‌آوری در برابر تهدیدات پیچیده و همچنین دسترسی‌های غیرمجاز یا سوء‌استفاده از داده‌ها را بهبود بخشند.

مدیران رده‌ی ارشد (C-suite) با آگاه‌ماندن از این روندها و سایر روندهای امنیتی، قادر هستند به تیم‌های فناوری خود در اجرای راهبردهای قوی امنیتی که با اهداف کسب‌وکار همسو هستند، کمک کنند.

 

تیموتی لیو (Timothy Liu) مدیر ارشد فناوری (CTO) و یکی از بنیان‌گذاران شبکه‌های هیل‌استون (Hillstone Networks) است . سوابق کامل اجرایی تیم لیو را در این آدرس بخوانید.

منتشر شده در وب‌سایت فوربس Forbes
توسط تیم لیو (Tim Liu)، ۲۸ ژوئن ۲۰۲۳
برگردان توسط حامد معین‌فر
در شرکت مهندسین فناور پندار آریا – پنداریا

چَت‌جی‌پی‌تی نیاز دارد برای هر ۲۰ الی ۵۰ سوالی که پرسیده می‌شود، یک بطری کامل آب شیرین «بنوشد»

عنوان اصلی مقاله: ChatGPT needs to ‘drink’ a water bottle’s worth of fresh water for every 20 to 50 questions you ask
تاریخ انتشار و نویسنده: by Will Gendron, Apr 14, 2023
وب‌سایت منتشر کننده: Business Insider
 لینک اصلی مقاله

تخمین زده می‌شود که چَت‌جی‌پی‌تی برای هر ۲۰تا ۵۰ پرسش و پاسخ، یک بطری استاندارد ۵۰۰ گرمی آب مصرف می‌کند. عکس از نارایان ماهارجان (Narayan Maharjan) /نورفوتو (NurPhoto) از طریق گِتی ایمِجز (Getty Images)

 

با هجوم عموم مردم به سمت ابزارهای هوش مصنوعی مولّد از جمله چَت‌جی‌پی‌تی (ChatGPT)، تأثیر زیست‌محیطی این فناوری جدید در شرف آشکارشدن است.

هر چند تا این لحظه داده‌های بسیار کمی در مورد هوش مصنوعی و قابلیت پایدارپذیری (Sustainability) آن وجود دارد، نوک پیکان مطالعه‌ی اخیر مشترک میان محقّقان دانشگاه کالیفرنیا در ریورساید (Riverside) و دانشگاه تگزاس در آرلینگتون (Arlington) به سمت ردّپای آبی مدل‌های هوش مصنوعی از جمله GPT-3 و GPT-4 از اُپن‌اِی‌آی (OpenAI) نشانه رفته‌است.

تخمین زده شده‌است که مایکروسافت در حین آموزش GPT-3 در مراکز داده‌ی خود، ۷۰۰٬۰۰۰ لیتر یا حدود ۱۸۵٬۰۰۰ گالن آب شیرین مصرف کرده‌است. این مقدار آب، طبق گفته‌ی گیزمودو (Gizmodo) برای پر کردن برج خنک‌کننده‌ی یک راکتور هسته‌ای کافی است، و نیز برابر با همان مقداری است که برای تولید ۳۷۰ خودروی بی‌ام‌و (BMW) یا ۳۲۰خودروی تسلا (Tesla) استفاده می‌شود.

با استفاده از این اعداد، مشخص شده‌است که چَت‌جی‌پی‌تی برای هر ۲۰ تا ۵۰ سوالی که پاسخ می‌دهد به ۵۰۰ میلی‌لیتر آب یا یک بطری بزرگ آب آشامیدنی احتیاج دارد.

نویسندگان این مطالعه، با توجه به پایگاه بزرگان کاربران چَت‌جی‌پی‌تی می‌گویند: «هرچند ممکن است یک بطری آب ۵۰۰ میلی‌لیتری خیلی زیاد به نظر نرسد، اما مجموع ترکیب ردّپای آبی تا رسیدن کاربران به نتیجه استنتاجات خود همچنان بسیار زیاد است».

یکی از سخن‌گویان شرکت مایکروسافت در بیانیه‌ای به اینسایدر (Insider) گفت: مایکروسافت «در حال سرمایه‌گذاری تحقیقاتی بر روی اندازه‌گیری مصرف انرژی و تاثیر کربنی هوش مصنوعی است، در حالی که هم‌زمان بر روی راهکارهایی برای کارآمدترسازی سامانه‌های بزرگ، چه در زمان آموزش و چه در زمان کاربرد هوش مصنوعی کار می‌کند.»

او افزود: «ما هم‌چنان به سرمایه‌گذاری در خرید انرژی‌های تجدیدپذیر و سایر تلاش‌ها برای دستیابی به اهداف خود در پایدارپذیری، یعنی منفی‌شدن کربنی (Carbon Negative)، مثبت‌شدن آبی (Water Positive) و صفرشدن ضایعاتی (Zero Waste) تا سال 2030 ادامه می‌دهیم.»

اُپن‌اِی‌آی به درخواست‌های اینسایدر برای اظهار نظر در این خصوص پاسخی نداد.

مدل‌های هوش مصنوعی از جمله GPT-3 و GPT-4 در مراکز داده میزبانی می‌شوند، که انبارهایی هستند فیزیکی که ردیف‌های بزرگی از سرورهای محاسباتی را در خود جای داده‌اند. کار این سرورها شناسایی روابط و الگوها در میان مجموعه‌ی عظیمی از داده‌ها می‌باشد که به نوبه‌ی خود مصرف‌کننده‌ی انرژی هستند؛ چه از نوع برق باشد یا زغال سنگ، انرژی هسته‌ای یا گاز طبیعی.

منابع قابل توجهی از انرژی در فرایند آموزش هوش مصنوعی مصرف شده که بلافاصله تبدیل به گرما می‌شوند. سپس از منابع آب موجود در محل برای کنترل دما در کل زیرساخت‌ها استفاده می‌شود. بر مبنای این مطالعه، برای کنترل رطوبت در سطح مناسب و نیز از آنجایی که آب شور می‌تواند منجر به خوردگی، گرفتگی لوله‌های آب و رشد باکتری‌ها شود، برای این منظور آب شیرین مورد نیاز می‌باشد.

به گفته‌ی محقّقان، در این مسیر رو به جلو، این ارقام می‌توانند «برای GPT-4 که تازه راه‌اندازی شده‌است و اندازه‌ی مدل بسیار بزرگ‌تری دارد، چندین برابر افزایش یابد.»

تیم محقّقان با استفاده از یک روش متعلّق به خود که اثربخشی مصرف آب (WUE) در محل و خارج از محل مرکز داده را محاسبه می‌کند، موفّق شده‌اند علاوه بر مصرف انرژی، تخمین‌هایی را نیز از ردّپای آبی مدل زبان بزرگ گوگل که لامدا (LaMDA) نامد دارد، به‌دست آورند.

با این حال، عدم وجود شفافیت در خصوص ارقام آب مصرفی مرتبط با آموزش هوش مصنوعی، در نهایت تعیین دقیق ردّپای واقعی آبی را دشوار می‌سازد. وقتی از گوگل در خصوص مصرف آب لامدا سوال شد، ما را به گزارش نوامبر ۲۰۲۲ خود ارجاع داد که در آن داده‌های سال ۲۰۲۱ مصرف گسترده‌ی آب در مراکز داده منتشر شده‌است.

محقّقان نوشته‌اند: «در حالی که نمی‌توان بدون وجود داده‌های دقیق از گوگل ردّپای واقعی آبی را شناخت، تخمین ما نشان می‌دهد که کل ردّپای آبی آموزش لامدا به مراتبی در حدود میلیون‌ها لیتر است.»

در حالی که ردّپای کربنی درگیر در هوش مصنوعی مولّد، زنگ‌های خطر را به صدا در آورده‌است، محقّقان می‌گویند که مقاله‌ی آنها به دنبال این است که «ضرورت پرداختن به ردّپای آبی در کنار ردّپای کربنی را برای امکان‌دادن به هوش مصنوعی واقعاً پایدار‌پذیر، برجسته نماید.»

منتشر شده در وب‌سایت Business Insider
توسط ویل گِندرون (Will Gendron) ، ۱۴ آوریل ۲۰۲۳
برگردان توسط حامد معین‌فر
در شرکت مهندسین فناور پندار آریا – پنداریا

هوش مصنوعی چگونه مدیریت پروژه‌ها را متحوّل خواهد کرد

عنوان اصلی مقاله: How AI Will Transform Project Management
تاریخ انتشار و نویسنده: by Antonio Nieto-Rodriguez and Ricardo Viana Vargas, February 02, 2023
وب‌سایت منتشر کننده: Harvard Business Review
 لینک اصلی مقاله

خلاصه: امروزه، تنها ۳۵درصد از پروژه‌ها با موفقیت به سرانجام می‌رسند. یکی از دلایل این نرخ ناامیدکننده در سرنوشت پروژه‌ها، سطح پایین بلوغ فناوری‌های در دسترس برای مدیریت پروژه‌ها است. امّا اکنون این وضعیت در حال تغییر است. محقّقان، شرکت‌های نوپا و سازمان‌های نوآور، شروع به بهره‌گیری از هوش مصنوعی (AI)، یادگیری ماشینی (ML) و سایر فناوری‌های پیشرفته در مدیریت پروژه‌ها کرده‌اند و این حوزه تا سال ۲۰۳۰ دستخوش تغییرات اساسی خواهدشد. به زودی این دست از فناوری‌ها انتخاب و اولویت‌بندی پروژه‌ها را بهبود خواهند بخشید، بر پیشرفت آنها نظارت خواهند کرد، سرعت تولید گزارشات را افزایش خواهند داد و موجب تسهیل در آزمون‌های تحویل خواهند شد. مدیران پروژه، با بهره‌گیری دستیاران مجازی در پروژه‌ها، بیشتر از آنکه نقش خود را بر کارهای اداری و دستی متمرکز سازند، به مربّی‌گری اعضای تیم پروژه و مدیریت انتظارات ذی‌نفعان خواهند پرداخت. نویسندگان این مقاله می‌خواهند نشان دهند که چگونه سازمان‌هایی که تمایل دارند از مزایای فناوری‌های نوین در مدیریت پروژه‌ها بهره ببرند، باید از همین امروز کار خود را با جمع‌آوری و پاک‌سازی داده‌های موجود در پروژه‌ها آغاز نمایند.

تصوّر نمایید در آینده‌ای نزدیک، مدیر عامل یک شرکت بزرگ ارائه‌دهنده‌ی خدمات مخابراتی چگونه از یک برنامه‌ی کاربردی بر روی گوشی هوشمند خود برای بررسی آخرین وضعیت «هفت ابتکار راهبردی» که در سازمان او در حال اجراست، استفاده خواهد کرد. تنها با چند اشاره، او از وضعیت هر پروژه و این‌که چند درصد از مزایای مورد انتظار در آن پروژه محقّق شده‌اند مطلع می‌شود. در هر لحظه، منشورهای پروژه (Project Charters) و شاخص‌های کلیدی عملکرد (KPI) در دسترس او هستند، همین‌طور سطح روحیه‌ی هر یک از اعضای تیم پروژه و میزان کلّی رضایت ذی‌نفعان کلیدی.

او به عمق بیشتری از جزئیات «اقدام ابتکاری برای بازسازی نام تجاری سازمان» دسترسی دارد. چند ماه پیش‌تر، یک رقیب بزرگ، یک خط تجاری جدید اصطلاحاً «سبز» راه‌اندازی کرده‌بود که باعث شد شرکت او نیز سرعت پیاده‌سازی راه‌حل‌های مبتنی بر قابلیت‌های پایداری (Sustainability) را افزایش دهد. بر اساس مؤلّفه‌های انتخاب‌شده در زمان آغاز این «اقدام ابتکاری» توسط مدیر پروژه و تیم پروژه، بسیاری از خودتنظیم‌گرهای مبتنی بر هوش مصنوعی از قبل اعمال شده‌اند. این برنامه‌ی کاربردی، مدیر عامل را از هر تغییری که نیاز به توجّه داشته‌باشد – و همچنین مخاطرات بالقوه‌ی ناشی از آن تغییرات – آگاه می‌سازد و تصمیماتی را که او باید اتخاذ نماید اولویت‌بندی کرده و راه‌حل‌های بالقوه را نیز برای هر کدام از آن موضوعات پیشنهاد می‌کند.

مدیر عامل قبل از هر انتخاب یا اقدامی، ابتدا با مدیر پروژه که اکنون بیشتر وقت خود را صرف مربّی‌گری و پشتیبانی از تیمش کرده‌است، ارتباط خود با سهامداران کلیدی را به صورت منظّم حفظ نموده و یک فرهنگ با عملکرد بالا را پرورش داده‌است، تماس می‌گیرد. چند هفته پیش، پروژه دچار اندکی تأخیر شده‌بود و برنامه‌ی کاربردی روی گوشی هوشمند مدیر عامل به او توصیه کرده‌بود که تیم باید از شیوه‌های چابک (Agile) برای سرعت‌بخشیدن به یک رشته‌ی خاص از فعالیت‌ها در پروژه بهره بگیرد.

در طول جلسه، آنها راه‌حل‌های احتمالی را شبیه‌سازی کرده و در خصوص مسیر پیشِ رو به توافق می‌رسند. برنامه‌ی پروژه به طور خودکار به‌روز شده و پیام‌هایی ارسال می‌شوند تا اعضای مرتبط در تیم و ذی‌نفعان پروژه را از تغییرات و پیش‌بینی نتایج مورد انتظار ناشی از آن تغییرات مطّلع نماید.

به لطف فناوری‌ها و روش‌های جدید کاری، یک پروژه‌ی راهبردی که احتمال داشت از کنترل خارج شود – یا شاید حتّی منجر به شکست شود – اکنون دوباره در مسیر صحیح منتج به موفقیت و حصول نتایج مورد انتظار قرار گرفته‌است.

چنانچه به زمان حال بازگردیم، مدیریت پروژه‌ها همواره به همین راحتی‌ها پیش نمی‌رود، اما این آینده‌ای است که آن را برای شما ترسیم کردیم و احتمالاً کوتاه‌تر از یک دهه‌ی دیگر به حقیقت خواهد پیوست. برای اینکه زودتر به آنجا برسیم، سازمان‌ها و نوآوران باید از هم‌اکنون بر روی فناوری‌های مدیریت پروژه سرمایه‌گذاری نمایند.

مدیریت پروژه‌ها در زمان حال و مسیر پیشِ روی آن

هر ساله حدود ۴۸ تریلیون دلار در پروژه‌های مختلف سرمایه‌گذاری می‌شود. با این حال، طبق آمار گروه اِستَندیش (Standish)، تنها ۳۵ درصد از پروژه‌ها موفّق ارزیابی می‌شوند. در ۶۵ درصد دیگر پروژه‌ها میزان هَدررفت منابع و مزایای تحقّق‌نیافته مایه‌ی شگفتی است.

سال‌هاست که در تحقیقات و انتشارات خود، نوسازی روش‌های مدیریت پروژه را ترویج کرده‌ایم. متوجّه شده‌ایم که یکی از دلایلی که موجب نرخ موفقیت بسیار ضعیف در پروژه‌ها است، سطح پایین بلوغ فناوری‌های موجود برای مدیریت آنها است. اکثر سازمان‌ها و رهبران پروژه هم‌چنان از «صفحات گسترده» (Spreadsheets)، اسلایدها و سایر برنامه‌هایی استفاده می‌کنند که در چند دهه‌ی گذشته پیشرفت چندانی نداشته‌اند. شاید این ابزارها برای ارزیابی موفقیت پروژه با اندازه‌گیری نتایج قابل تحویل (Deliverables) و موعدهای مقرّر (Deadlines) کافی باشند، اما این ابزارها در محیطی که پروژه‌ها و اقدامات ابتکاری همواره در حال تطبیق با شرایط جدید هستند و کسب‌وکار به طور مداوم تغییر می‌کند، ناکافی هستند. پیشرفت‌هایی در برنامه‌های مدیریت سبد (پورتفوی) پروژه‌ها حاصل شده‌است، اما هنوز قابلیت برنامه‌ریزی برای ایجاد همکاری‌های بین تیمی، خودکارسازی و بهره‌گیری از ویژگی‌های «هوشمند» وجود ندارد.

اگر در مدیریت پروژه‌ها هوش مصنوعی و سایر نوآوری‌های مبتنی بر فناوری قادر باشند نسبت موفقیت در آنها را تنها تا ۲۵ درصد بهبود بخشند، ارزش و مزایای به‌کارگیری این ابزارها برای سازمان‌ها، جوامع و افراد معادل تریلیون‌ها دلار خواهد بود. تمام هسته‌های فناوری که در داستان بالا شرح داده شدند همین حالا نیز آماده‌ی بهره‌برداری هستند؛ اکنون تنها سؤال این است که با چه سرعتی می‌توان این ابزارها را به طور مؤثّری در مدیریت پروژه‌ها اعمال کرد.

تحقیقات گارتنر (Gartner) نشان می‌دهند که تغییرات به سرعت در راه هستند و پیش‌بینی می‌کنند که تا سال ۲۰۳۰، ۸۰ درصد از وظایف مدیران پروژه توسط هوش مصنوعی که از کلان‌داده‌ها (Big Data)، یادگیری ماشینی (ML) و پردازش زبان طبیعی (NLP) پشتیبانی می‌کند، اجرا خواهند شد. تعدادی از محقّقان، مانند پُل بودریو (Paul Boudreau) در کتاب خود، استفاده از ابزارهای هوش مصنوعی در مدیریت پروژه، و تعداد فزاینده‌ای از شرکت‌های نوپا، مجموعه‌ای از الگوریتم‌ها (خوارزمی‌ها!) را برای به‌کارگیری هوش مصنوعی و یادگیری ماشینی در دنیای مدیریت پروژه توسعه داده‌اند. زمانی که این نسل بعدی از ابزارها به طور گسترده مورد استفاده قرار گیرند، تغییرات اساسی نیز  به وقوع خواهند پیوست.

شش جنبه از مدیریت پروژه که متحوّل خواهند شد

ما پیشرفت‌های فناورانه‌ی پیشِ رو را فرصتی می‌بینیم که هیچ‌گاه وجود نداشته‌اند. آن سازمان‌ها و رهبران پروژه‌ای که بیشترین آمادگی را برای این لحظه‌ی تحوّل‌آفرین دارند، بیشترین پاداش را از آن کسب خواهند کرد. تقریباً تمام جنبه‌های مدیریت پروژه، از برنامه‌ریزی گرفته تا فرایندها و افراد درگیر در پروژه‌ها، تحت تأثیر قرار خواهند گرفت. بیایید نگاهی به این شش حوزه‌ی کلیدی بیندازیم.

۱- انتخاب و اولویت‌بندی بهتر پروژه‌ها

انتخاب و اولویت‌بندی، هر دو مهارت‌هایی از نوع پیش‌بینی هستند: کدام پروژه‌ها بیشترین ارزش را برای سازمان خواهند آفرید؟ چنانچه داده‌های صحیح در دسترس باشند، یادگیری ماشینی قادر است الگوهایی را تشخیص دهد که با روش‌های دیگر قابل تشخیص نیستند و لذا می‌تواند بسیار فراتر از دقّت انسان‌ها در انجام پیش‌بینی‌ها برود. اولویت‌بندی مبتنی بر یادگیری ماشینی به زودی منجر به حصول مزیّت‌های زیر خواهد شد:

– شناسایی سریع‌تر آن دسته از پروژه‌های آماده به کار که پایه و اساس اولیه‌ی یک پروژه را در اختیار دارند
– انتخاب پروژه‌هایی که شانس موفقیت بیشتری دارند و بالاترین آورده را برای سازمان خواهند داشت
– تعادل بهتر در سبد پروژه‌ها و ارائه‌ی نمای اجمالی از وضعیت مخاطرات در سازمان
– حذف سوگیری‌های انسانی از فرایندهای تصمیم‌گیری

۲- پشتیبانی از دفاتر مدیریت پروژه

شرکت‌های نوپا در زمینه‌ی تجزیه‌وتحلیل و خودکارسازی داده‌ها اکنون به سازمان‌ها این یاری را می‌رسانند تا نقش دفاتر مدیریت پروژه (PMO) را ساده و بهینه سازند. معروف‌ترین نمونه‌ی آن، استفاده‌ی رئیس‌جمهور فرانسه امانوئل ماکرون از جدیدترین فناوری برای به‌روز نگاه‌داشتن اطلاعات خود در خصوص تمامی پروژه‌های بخش عمومی فرانسه است. این ابزارهای هوشمند جدید، نحوه‌ی عملیات و عملکرد دفاتر مدیریت پروژه را به طور اساسی در موارد زیر تغییر خواهند داد:

– نظارت بهتر بر پیشرفت پروژه‌ها
– قابلیت پیش‌بینی مشکلات احتمالی و رسیدگی خودکار به برخی از موارد که ساده‌تر هستند
– تهیه و توزیع خودکار گزارش‌های پروژه و جمع‌آوری بازخوردها از مخاطبین
– پیچیدگی بیشتر در انتخاب بهترین روش مدیریت پروژه برای هر پروژه‌ی خاص
– نظارت بر وضعیت انطباق پروژه‌ها با فرایندها و سیاست‌ها
– خودکارسازی کارکردهای پشتیبان، با بهره‌گیری از دستیارهای مجازی پروژه، همچون به‌روزرسانی وضعیت‌ها، ارزیابی مخاطرات و تجزیه‌وتحلیل ذی‌نفعان

۳- تسریع و بهبود در تعریف، برنامه‌ریزی و گزارش‌دهی پروژه‌ها

یکی از حوزه‌های بیشتر توسعه‌یافته برای خودکارسازی مدیریت پروژه، موضوع مدیریت مخاطرات است. برنامه‌های کاربردی جدید از کلان‌داده‌ها و یادگیری ماشینی برای کمک به رهبران و مدیران پروژه برای پیش‌بینی مخاطراتی که در غیر این صورت ممکن بود مورد توجه قرار نگیرند، استفاده می‌کنند. این ابزارها می‌توانند اقداماتی برای تخفیف مخاطرات (Risk Mitigation) پیشنهاد دهند و به زودی خواهند توانست برنامه‌های مدیریت مخاطرات را به طور خودکار به نحوی که موجب جلوگیری از بروز انواع خاصی از مخاطرات شوند، تنظیم نمایند.

رویکردهای مشابه دیگری نیز به زودی تعریف، برنامه‌ریزی و گزارش‌دهی در پروژه‌ها را تسهیل خواهند کرد. در حال حاضر انجام این تکالیف زمان‌بر، تکراری و بیشتر آنها دستی هستند. یادگیری ماشینی، پردازش زبان طبیعی و خروجی متن ساده (Rich text) منجر به دستاوردهای زیر خواهند شد:

– بهبود مدیریت محدوده در پروژه‌ها با خودکارسازی جمع‌آوری و تجزیه‌وتحلیل زمان‌بر دانسته‌های کاربران. این ابزارها مشکلات احتمالی‌ای مانند ابهامات، تکرارها، جا افتادن‌ها، ناهماهنگی‌ها و پیچیدگی‌ها را آشکار می‌سازند.
– ابزارهایی برای تسهیل فرایندهای زمان‌بندی و پیش‌نویسی برنامه‌های تفصیلی و مدیریت تقاضا برای تخصیص منابع در پروژه‌ها
– گزارش‌دهی خودکار به نحوی که نه تنها گزارشات با کار کمتری تولید خواهند شد، بلکه اطلاعات موجود در گزارش‌های امروزی، که اغلب چندین هفته قدیمی هستند، با داده‌های بی‌درنگ جایگزین می‌شوند. همچنین این ابزارها عمیق‌تر از آنچه که اکنون امکانش وجود داشته باشد در داده‌ها کنکاش خواهند کرد و وضعیت پروژه‌ها، مزایای به‌دست‌آمده، لغزش‌های احتمالی و احساسات درون‌تیمی را به روشی واضح و عینی نشان می‌دهند.

۴- دستیاران مجازی پروژه

در عمل چَت‌جی‌پی‌تی (ChatGPT) یک شبه درک جهان را نسبت به آنکه چگونه هوش مصنوعی قادر است مجموعه‌ای از داده‌ها را تجزیه‌وتحلیل نموده و بینش‌های جدید و آنی را در قالب خروجی متن ساده تولید کند، تغییر داد. ابزارهایی از این دست در مدیریت پروژه‌ها، به «ربات‌ها» یا «دستیاران مجازی» قدرت می‌بخشند. اوراکل (Oracle) اخیراً دستیار دیجیتالی مدیریت پروژه‌ی جدیدی را معرفی کرده‌است که امکان به‌روزرسانی آنی وضعیت‌ها در پروژه را ارائه می‌دهد و به کاربران کمک می‌کند تا زمان و پیشرفت کارها را از طریق متن، صدا یا گَپ (Chat) به‌روزرسانی نمایند.

این دستیار دیجیتالی از داده‌های قبلی واردشده برای ثبت زمان‌ها، داده‌های برنامه‌ریزی پروژه و زمینه‌ی کلی پروژه یاد می‌گیرد تا تعاملات را تنظیم کرده و اطلاعات حیاتی پروژه را به‌طور هوشمندانه ثبت نماید. پی‌موتو (PMOtto) یک دستیار مجازی پروژه با قابلیت یادگیری ماشینی است که در حال حاضر نیز استفاده می‌شود. یک کاربر می‌تواند از پی‌موتو بخواهد: «برنامه‌ی جان (John) را برای نقاشی دیوارها در هفته آینده تنظیم کن و او را تمام وقت به این کار تخصیص بده». دستیار ممکن است پاسخ دهد، «بر اساس وظایف مشابه قبلی که به جان اختصاص داده شده‌اند، به نظر می‌رسد که او برای انجام کار به دو هفته زمان نیاز داشته باشد و نه یک هفته آنطور که شما درخواست کردید. آیا باید آن را تنظیم کنم؟»

۵- سامانه‌ها و نرم‌افزارهای پیشرفته برای آزمون نتایج

آزمون نتایج تحویل‌دادنی یکی دیگر از وظایف ضروری در اکثر پروژه‌ها هستند و مدیران پروژه مجبور هستند این آزمون‌ها را با سرعت و تداوم انجام دهند. امروزه به ندرت می‌توان پروژه‌ای بزرگ را یافت که فاقد چندین سامانه و انواع نرم‌افزارهایی باشد که باید قبل از تحویل پروژه آزمایش شوند. به زودی و به‌طور گسترده، سامانه‌های پیشرفته‌ی آزمون که اکنون فقط برای پروژه‌های بزرگ قابل استفاده هستند، بیشتر در دسترس خواهند بود.

خط ریلی الیزابت که بخشی از پروژه‌ی کراس‌ریل (Crossrail) در بریتانیا است، یک راه‌آهن پیچیده با ایستگاه‌های جدید، زیرساخت‌های جدید، مسیرهای جدید و قطارهای جدید است. بنابراین، مهم است که تک‌تک عناصر پروژه از یک فرایند آزمون و راه‌اندازی دقیق برای اطمینان از ایمنی و قابلیت اطمینان‌پذیری در آنها، عبور داده شوند. این عملیات به ترکیبی از سخت‌افزارها و نرم‌افزارهایی که قبلاً وجود نداشتند نیاز داشت و پس از چالش‌های اولیه، تیم پروژه «تأسیسات یکپارچه‌سازی کراس‌ریل» را توسعه داد. این تأسیسات آزمون کاملاً خودکار که خارج از سایت پروژه قرار دارد، اکنون ثابت کرده‌است که چه ارزش غیرقابل اندازه‌گیری‌ای در افزایش کارایی، به‌صرفه‌سازی و انعطاف‌پذیری سامانه‌ها داشته‌است. مهندس این سامانه، اَلِساندرا شول-اِستِرنبرگ (Alessandra Scholl-Sternberg) برخی از ویژگی‌های آن را این‌گونه شرح می‌دهد: «کتابخانه‌ی گسترده‌ای از خودکارسازی سامانه‌ها نوشته شده‌است که امکان دستیابی به تنظیمات پیچیده، انجام دقیق بررسی‌های سلامت، انجام آزمون‌های استقامتی در دوره‌های طولانی و اجرای آزمون‌هایی با ماهیت تکراری را فراهم می‌سازند.» در این مرکز ، امکان انجام ممیزی‌های دقیق به‌صورت ۲۴×۷ بدون نگرانی از مخاطرات و تأثیر ناشی از سوگیری کاربران سامانه وجود دارد.

به زودی، راه‌حل‌های پیشرفته و خودکار برای انجام آزمون سامانه‌ها در پروژه‌های نرم‌افزاری، امکان تشخیص زودهنگام عیوب و اجرای فرایندهای خوداصلاح‌گر را فراهم می‌سازند. این امر زمان صرف‌شده برای فعالیت‌های دست‌وپاگیر در آزمون‌ها را به میزان قابل توجهی کاهش می‌دهد، تعداد دوباره‌کاری‌ها را کم می‌کند و در نهایت راه‌حل‌هایی با کاربری آسان و بدون اشکال ارائه می‌دهد.

۶- یک نقش جدید برای مدیران پروژه

ممکن است خودکارسازیِ بخش قابل توجهی از وظایف فعلی مدیران پروژه، برای بسیاری از آنها ترسناک باشد، اما افراد موفّق یاد خواهند گرفت که از این ابزارها به نفع خود استفاده نمایند. مدیران پروژه حذف نخواهند شد، بلکه مجبور خواهند شد این تغییرات را بپذیرند و از فناوری‌های جدید بهره ببرند. ما در حال حاضر تیم‌های چندتخصّصی در پروژه‌ها را با ترکیبی متشکّل از افراد مختلف می‌شناسیم، اما ممکن است به زودی آنها را به شکل گروه‌هایی متشکّل از انسان‌ها و ربات‌ها در کنار یکدیگر ببینیم.

در آینده مدیران پروژه با دور شدن از کارهای اداری، باید مهارت‌های قوی نرم، قابلیت‌های رهبری، تفکّر راهبردی و هوش تجاری را در خود پرورش دهند. آنها باید بر حصول منافع مورد انتظار و هم‌سویی آن منافع با اهداف راهبردی سازمان تمرکز نمایند. همچنین آنها به یک درک خوب از این فناوری‌ها نیاز خواهند داشت. برخی از سازمان‌ها در حال حاضر نیز هوش مصنوعی را در برنامه‌های آموزشی و صدور گواهینامه‌های مدیریت پروژه‌ی خود وارد کرده‌اند؛ دانشگاه نورث‌ایسترن (Northeastern University) هوش مصنوعی را در برنامه‌های آموزش خود گنجانده است و به مدیران پروژه آموزش می‌دهد که چگونه از هوش مصنوعی برای خودکارسازی و بهبود مجموعه‌ی داده‌ها و بهینه‌سازی ارزش سرمایه‌گذاری در پروژه‌ها استفاده نمایند.

داده‌ها و انسان‌ها به آینده واقعیت می‌بخشند

چگونه می‌توانید اطمینان داشته‌باشید، زمانی که این ابزارها برای استفاده در سازمان‌ها به آمادگی کافی برسند، سازمان شما نیز آمادگی لازم برای استفاده از آنها را خواهد داشت؟ هر فرایند پذیرش فناوری‌های هوش مصنوعی در سازمان با آماده‌سازی داده‌ها آغاز می‌شود، اما شما نباید نسبت به آماده‌سازی افراد تیم خود نیز کوتاهی نمایید.

آموزش الگوریتم‌های هوش مصنوعی برای مدیریت پروژه‌ها به مقادیر زیادی داده‌های مرتبط با پروژه احتیاج دارد. شاید سازمان شما مجموعه‌ای از داده‌های تاریخی پروژه‌ها را حفظ کرده‌باشد، اما به احتمال زیاد این داده‌ها در هزاران سند در قالب‌های مختلف پراکنده هستند و در سامانه‌های متعدّد ذخیره‌سازی شده‌اند. این اطلاعات ممکن است قدیمی باشند، ممکن است از طبقه‌بندی‌های مختلف استفاده کرده‌باشند، یا حاوی داده‌های بی‌ربط و یا شکاف‌هایی در داده‌های اصلی باشند. تقریباً 8۰ درصد از زمان صرف‌شده برای آماده‌سازی الگوریتم‌های یادگیری ماشینی بر روی جمع‌آوری و پاک‌سازی داده‌ها تمرکز دارد که طی آن، داده‌های خام و بدون ساختار به داده‌های ساختاریافته‌ای تبدیل می‌شوند که قادر هستند یک مدل یادگیری ماشینی را آموزش دهند.

هرگز تحوّل هوش مصنوعی در سازمان شما بدون وجود داده‌های در دسترس و داده‌های مدیریت‌شده‌ی مناسب اتفاق نخواهد افتاد؛ اما اگر خود و تیم‌تان را برای تغییر آماده نکنید‌ نیز هیچ تحوّلی در هوش مصنوعی شکوفا نخواهد شد.

این نسل جدید از ابزارها نه تنها فناوری‌هایی را که ما در مدیریت پروژه‌ها استفاده می‌کنیم تغییر می‌دهند، بلکه کار ما را نیز به کلی در پروژه‌ها متحوّل خواهند کرد. مدیران پروژه باید برای مربّی‌گری و آموزش تیم‌های خود جهت انطباق با این انتقال آماده باشند. آنها باید تمرکز خود را بر روی تعاملات انسانی افزایش دهند و در عین حال کاستی‌های مهارتی فناورانه را در افراد خود شناسایی کرده و برای رفع آنها تلاش نمایند. مدیران پروژه باید علاوه بر تمرکز بر نتایج تحویل‌دادنی در پروژه‌ها، بر ایجاد تیم‌هایی با عملکرد بالا نیز تمرکز نمایند، به گونه‌ای که اعضای تیم آنچه را که به آنها اجازه می‌دهد بهترین عملکرد را از خود نشان دهند، در اختیار دارند.

اگر به طور جدی در حال بررسی استفاده از هوش مصنوعی در پروژه‌ها و شیوه‌های مدیریت پروژه‌ی خود هستید، سؤالات زیر به شما کمک می‌کنند تصمیم خود را بهتر ارزیابی نمایید؛

– آیا این آمادگی را دارید تا برای تهیه فهرست دقیقی از تمام پروژه‌های در اختیار خود، از جمله آخرین وضعیت به‌روزشده در آنها، زمان صرف نمایید؟
– آیا قادر هستید بخشی از منابع خود را چندین ماه برای جمع‌آوری، پاک‌سازی و ساختارمندسازی داده‌های موجود در پروژه‌های خود اختصاص دهید؟
– آیا تصمیم خود را گرفته‌اید که عادات قدیمی مدیریت پروژه‌ی خود را از جمله گزارش‌های پیشرفت ماهانه کنار بگذارید؟
– آیا آماده‌ی سرمایه‌گذاری در آموزش مجموعه‌ی مدیریت پروژه‌ی خود برای استفاده از این فناوری‌های جدید هستید؟
– آیا آنها نیز تمایل دارند از مناطق سنّتی آسایش خود خارج شوند و نحوه‌ی مدیریت پروژه‌های خود را به طور اساسی تغییر دهند؟
– آیا سازمان شما آماده‌ی پذیرش و به‌کارگیری یک فناوری جدید و واگذاری کنترل تصمیمات به مراتب مهم‌تر به آن است؟
– آیا حاضر هستید اجازه دهید که این فناوری مرتکب اشتباه نیز بشود تا یاد بگیرد که برای سازمان شما چگونه عملکرد بهتری داشته باشد؟
– آیا حامی اجرایی در این پروژه، توانایی و اعتبار لازم در سازمان شما را دارد تا رهبری این تحوّل را در دست بگیرد؟
– آیا رهبران ارشد مایل هستند چندین ماه تا یک سال، منتظر بمانند تا مزایای خودکارسازی را مشاهده نمایند؟

اگر پاسخ به همه‌ی این سوالات مثبت است، پس شما آماده‌ی شروع این تحوّل پیشگام هستید. اگر یک یا چند پاسخ «نه» دارید، باید قبل از حرکت آنها را به سمت «بله» سوق دهید.

•••

همانطور که دیدیم، استفاده از هوش مصنوعی در مدیریت پروژه‌ها مزایای قابل توجهی را به همراه خواهد داشت، نه تنها در خودکارسازی وظایف اداری و کم‌ارزش، بلکه مهمتر از آن، هوش مصنوعی و سایر فناوری‌های مخرّب در جعبه‌ی ابزار شما از جمله به سازمان شما کمک می‌کنند رهبران و مدیران پروژه، پروژه‌ها را با موفقیت بیشتری انتخاب، تعریف و اجرا نمایند.

مدیر عامل داستان ما زمانی در موقعیتی قرار داشت که شما امروز در آن قرار گرفته‌اید. ما شما را تشویق می‌کنیم که از هم‌اکنون اولین گام‌ها را به سمت این چشم‌انداز مثبت از آینده‌ی مدیریت پروژه بردارید.

 

درباره‌ی نگارندگان

آنتونیو نیتو رودریگز (Antonio Nieto-Rodriguez) نویسنده‌ی کتاب راهنمای مدیریت پروژه هاروارد بیزینس ریویو (Harvard Business Review) ، مقاله‌ی زمان اقتصاد پروژه رسیده است HBR (The Project Economy Has Arrived) و پنج کتاب دیگر است. تحقیقات و تاثیرات جهانی آثار او بر مدیریت مدرن توسط تینکرز۵۰ (Thinkers50) به رسمیت شناخته شده‌اند. آنتونیو پیش‌رو در آموزش و مشاوره‌ی هنر و علم پیاده‌سازی راهبردها و مدیریت مدرن پروژه‌ها به مدیران اجرایی، استاد مدعو در هفت مدرسه‌ی تجاری پیش‌رو است. او بنیان‌گذار پراجکتس‌اَندکو (Projects&Co) و مؤسّسه‌ی پیاده‌سازی راهبردها (Strategy Implementation Institute) است. می‌توانید آنتونیو را از طریق تارنمای او، خبرنامه‌ی لینکدین او با عنوان پروژه‌ها را با موفقیت رهبری کنید (Lead Projects Successfully) و دوره‌ی آنلاین او بازاختراع مدیریت پروژه برای مدیران غیر پروژه‌ای (Project Management Reinvented for Non–Project Managers) دنبال نمایید.

دکتر ریکاردو ویانا وارگاس (Ricardo Viana Vargas)، بنیان‌گذار و مدیر عامل ماکروسُلوشنز (Macrosolutions)، یک شرکت مشاوره‌ی بین‌المللی در حوزه‌ی انرژی، زیرساخت، فناوری اطلاعات، نفت و امور مالی است. او بیش از ۲۰ میلیارد دلار پروژه‌های بین‌المللی را در 25 سال گذشته مدیریت کرده است. ریکاردو، برایت‌لاین اینشیتیو (Brightline Initiative) را از سال ۲۰۱۶تا ۲۰۲۰ایجاد و رهبری کرد و مدیر زیرساخت‌‌ها و تیم مدیریت پروژه‌ها در سازمان ملل متحد بود و بیش از 1000 پروژه بشردوستانه و توسعه‌ای را رهبری کرد. او ۱۶ کتاب در این زمینه نوشته‌است و میزبان «پادکست ۵ دقیقه‌ای» است که تا کنون به آمار ۱۲ میلیون بازدید رسیده‌است.

منتشر شده در وب‌سایت Harvard Business Review
برگردان توسط حامد معین‌فر
در شرکت مهندسین فناور پندار آریا – پنداریا

پنداریا - ترجمه - فراتر از مولّدها: مراکز داده به دنبال رویکردهای جدیدی برای تامین انرژی پشتیبان هستند

فراتر از مولّدها: مراکز داده به دنبال رویکردهای جدیدی برای تامین انرژی پشتیبان هستند

عنوان اصلی مقاله: Beyond Generators: Data Centers Pursue New Approaches to Backup Energy
تاریخ انتشار و نویسنده: JULY 26, 2021 – RICH MILLER
وب‌سایت منتشر کننده: Data Center Frontier
 لینک اصلی مقاله

سوخت روغن گیاهی هیدروژنه

شرکت کراون اویل (Crown Oil)، محموله‌ی سوخت روغن گیاهی هیدروژنه (HVO) را به عنوان یک جایگزین گازوئیل برای مولّدها در تاسیسات مرکز داده کائو (Kao Data Center) در هارلو (Harlow) انگلستان، تحویل می‌دهد. (تصویر: Kao Data)

صنعت مرکز داده در حال بازنگری در رویکرد خود برای تامین برق پشتیبان است، که این نیز خود ناشی از تعهد اپراتورهای اَبَرمقیاس به توقف استفاده از سوخت گازوئیل در مولّدهای اضطراری (Emergency Generators) می‌باشد. این روند، رویکردهای جدیدی را برای یکی از مهمترین نقاط حیاتی زنجیره‌ی نیرو در زیرساخت‌های دیجیتال برانگیخته است و همانطور که اپرواتورهای مهم به دنبال ایجاد توازن مناسب بین قابلیت‌های اطمینان‌پذیری و پایدارپذیری هستند، با احتیاط این رویکردها را مدّ نظر قرار می‌دهند.

این تغییر مسیر یک شبه اتفاق نمی‌افتد. با توجه به استقرار مولّدها در تقریباً تمام مراکز داده در سراسر جهان، گذار از سوخت گازوئیل کار بزرگی است. اساساً صنعت مرکز داده ایجاد شد تا این اطمینان را ایجاد کند که کاربردهای حیاتی برای مأموریت‌ها (Mission-critical applications) هرگز قطع نمی‌شوند، و این هدف معمولاً از طریق ایجاد لایه‌هایی از زیرساخت‌های افزونه‌ی برق، از جمله سامانه‌های برق بدون وقفه (UPS) و همچنین مولّدهای پشتیبان اضطراری، محقق شده‌است.

اما اولین مهاجرت‌کنندگان، در حال پیاده‌سازی رویکردهای جدیدی برای استفاده از برق پشتیبان هستند. در اینجا نگاهی به چند رویکرد در حال پیاده‌سازی برای تاب‌آوری نیرو، از جمله سوخت‌های جایگزین، باتری‌های مقیاس بزرگ، پیل‌های سوختی و انرژی زمین‌گرمایی (Geothermal)، می‌اندازیم.

کائو دیتا (Kao Data) و مایکروسافت (Microsoft)، سوخت‌های سبزتر را امتحان می‌کنند

اولین قدم منطقی، رفتن به سمت سوخت‌های کمتر کربنی است، چرا که از سرمایه‌گذاری عظیم صورت‌گرفته در مولّدها توسط اپراتورها و ارائه‌دهندگان خدمات مرکز داده محافظت می‌کند. مایکروسافت و کائو دیتا هر کدام ابتکار عمل‌هایی با سوخت‌های جایگزین در مراکز داده خود در اروپا به خرج داده‌اند.

در همین ماه، کائو دیتا (ارائه‌دهنده بریتانیایی خدمات مرکز داده) سوخت تمام مولّدهای پشتیبان خود در محل پردیسش در هارلو، انگلستان را به سوخت‌های HVO (روغن گیاهی هیدروژنه) تبدیل کرد، که به گفته‌ی کائو خالص CO2 را تا ۹۰ درصد از خروجی مولّدهای پشتیبان آنها حذف می‌کند، و در همان حال انتشار اکسید نیتروژن، مونوکسید کربن و ذرات معلق را نیز کاهش می‌دهد.

سیمون لوفرد (Simon Lawford) مدیر فنی فروش در کراون اویل (Crown Oil)، شرکت تامین‌کننده‌ی سوخت برای کائو، می‌گوید: «سوخت HVO به طور چشم‌گیری برای محیط‌زیست بهتر از گازوئیل‌های معدنی سنتی می‌باشد. ۱۰۰٪ تجدیدپذیر، زیست تخریب‌پذیر، پایدار و غیرسمّی است. ما افتخار داریم که اولین پروژه در نوع خود را با همکاری کائو دیتا آغاز کرده‌باشیم که نقش دگرگون‌کننده‌ای در صنعت مرکز داده خواهد داشت و راه را برای کاهش چشمگیر انتشار صنعتی گازهای گلخانه‌ای نشان خواهد داد.»

HVO از روغن‌های گیاهی سنتز می‌شود، نیازی به اصلاح زیرساخت‌های موجود ندارد و می‌تواند به عنوان جایگزین مستقیم گازوئیل استفاده شود. همچنین از رشد میکروبی که باعث شکل‌گیری لجن و آلودگی در خطوط انتقال سوخت شده و به طور بالقوه می‌توانند منجر به خاموش‌شدن موتورها شوند، جلوگیری می‌کند. کائو دیتا در مرحله‌ی اول ۴۵,۰۰۰ لیتر گازوئیل را جایگزین می‌کند و هنگامی که پردیس به طور کامل توسعه یابد، بیش از ۷۵۰,۰۰۰ لیتر HVO تدارک خواهد دید.

مولّد پشتیبان در مرکز داده ابری مایکروسافت

یک مولّد پشتیبان در مرکز داده ابری مایکروسافت. (تصویر: مایکروسافت)

جرارد تیبو (Gérard Thibault)، مدیر ارشد فناوری در کائو دیتا، می‌گوید: «این حرکت به طور موثر سوخت‌های فسیلی را از چرخه‌ی عملیات مرکز داده حذف می‌کند و به ما کمک می‌کند تا میزان انتشار گازهای گلخانه‌ای محدوده‌ی ۳ (شاخص انتشار غیرمستقیم گازهای گلخانه‌ای در زنجیره‌ی ارزش یک شرکت) را در زنجیره‌ی تامین مشتریان خود کاهش دهیم، در حالی که هیچ تنزّلی در سطح خدمات ارائه‌شده‌ به آنها تجربه نخواهد شد. مهم‌تر از همه، این نشان می‌دهد که چگونه صنعت ما می‌تواند یک گام ساده و بسیار سودمند به نفع محیط‌زیست، پیش از COP26 (کنفرانس تغییرات آب‌وهوایی سازمان ملل متحد که قرار است در ماه نوامبر در گلاسکو، اسکاتلند برگزار شود) بردارد.»

همچنین، مایکروسافت امروز اعلام کرد که از سوخت تجدیدپذیر کم‌کربن برای تامین برق اضطراری منطقه‌ی ابری خود در سوئد استفاده خواهد کرد. مولّدهای پشتیبان در مرکز داده جدید مایکروسافت در سوئد با سوخت Evolution Diesel Plus کار خواهند کرد، سوختی که شامل روغن تفاله پالپ است، یک محصول جانبی تجدیدپذیر از صنعت جنگل‌داری و تولید کاغذ. این سوخت که دارای ”برچسب زیست‌محیطی“ می‌باشد، توسط شرکت انرژی سوئدی پریم (Preem) تولید شده و در همکاری و هماهنگی لازم با شرکت کاترپیلار (Caterpillar) این اطمینان حاصل شده‌است که این سوخت با مولّدهای مرکز داده‌ ابری آژور مایکروسافت (Microsoft Azure) که قرار است اواخر امسال شروع به کار کند، سازگار است.

این تصمیم، هدف مایکروسافت را برای پایان‌دادن به وابستگی‌اش به سوخت گازوئیل تا سال ۲۰۳۰، به عنوان بخشی از هدفش که در نهایت «کربن‌منفی (Carbon negative)» شود، به پیش می‌برد. این سوخت دیزلی زیست‌محیطی حاوی بیش از ۵۰ درصد انرژی‌های تجدیدپذیر بوده و بنابراین تنها نیمی از اثر کربنی حاصل از استفاده از گازوئیل یا سوخت‌های پایه‌ی نفت را به همراه خواهد داشت.

گوگل (Google) و سوئیچ (Switch) چشم بر باتری‌های لیتیوم یونی (Lithium-ion) بزرگ دارند

مدت مدیدی است که قابلیت ذخیره‌سازی انرژی در مقیاس شبکه‌های برق، حلقه‌ی مفقوده در تلاش صنعت مرکز داده برای تأمین توان زیرساخت‌های ابری با انرژی‌های تجدیدپذیر است. قابلیت ذخیره‌ی انرژی در محل می‌تواند یک عامل امکان‌ساز در پاسخ به الگوهای فعلی تولید متناوب (قطع‌شونده) نیرو توسط منابع تجدیدپذیر پیشتاز (صفحات خورشیدی فقط در هنگام تابش خورشید نیرو تولید می‌کنند و توربین‌های بادی در هوای آرام بی‌کار می‌مانند) محسوب شود. همچنین، استفاده از باتری‌های بزرگ می‌تواند در ادامه به نوآوری در تقسیم بار با شبکه‌ی برق و مدیریت بهتر شبکه منجر شود.

از جمله بازیگران پیشتاز این فناوری، گوگل (Google) و سوئیچ (Switch) هستند.

گوگل از باتری‌های بزرگ برای جایگزینی مولّدهای دیزلی در یکی از مراکز داده خود در بلژیک استفاده خواهد کرد و این پروژه را اولین گام در جهت استفاده از فناوری‌های پاک‌تر برای تأمین توان پشتیبان میلیون‌ها سرور خود در سراسر جهان توصیف می‌کند. جو کاوا (Joe Kava)، معاون مراکز داده در گوگل. آن را به این شکل توصیف می‌کند: «اولین گامی است که امیدواریم زمینه را برای یک چشم‌انداز بزرگ فراهم کند؛ جهانی که در آن سامانه‌های پشتیبان در مراکز داده از حالتی که خود یک مشکل منجر به تغییرات آب‌وهوایی باشند، تبدیل می‌شوند به اجزای حیاتی سامانه‌های انرژی بدون کربن.»

پروژه‌ی آزمایشی مرکز داده گوگل در بلژیک، تابستان امسال آغاز به کار کرده و از باتری‌های لیتیوم یونی بزرگ برای جایگزینی مولّدها استفاده خواهد کرد. قیمت باتری‌های لیتیوم یونی طی پنج سال گذشته حدود ۸۰ درصد کاهش یافته‌است و این امر، یکپارچه‌سازی ذخیره‌سازی با سامانه‌های انرژی خورشیدی را ممکن می‌سازد.

در ماه مارس، مایکروسافت و شرکت انرژی فرانسوی توتال (Total)، یک مشارکت دایر کردند تا امکان‌سنجی استقرار بلندمدت باتری‌های بزرگ به عنوان توان پشتیبان زیرساخت‌های حیاتی را ارزیابی نمایند، با همکاری با شرکت متخصص زیرمجموعه‌ی توتال در فناوری باتری، سَفت (Saft).

تسلا مگاپک ۳ مگاوات

تصویری از Tesla Megapack ، که ۳ مگاوات ظرفیت ذخیره‌ی انرژی را فراهم می‌کند. (تصویر: تسلا)

شرکت فناوری مرکز داده سوئیچ (Switch) اعلام کرده که قصد دارد از فناوری جدید ذخیره‌سازی انرژی در مقیاس بزرگِ شرکت تسلا برای افزایش سهم خود از انرژی‌های خورشیدی در پردیس‌های عظیم مرکز داده خود در لاس وگاس (Las Vegas) و رنو (Reno) استفاده کند. سوئیچ، سال گذشته مرزها را در پروژه‌ی نیروگاهی ”گیگاواتِ ۱“ خود که از صفحه‌های اثر فتوولتائی (Photovoltaic) برای تولید ۵۵۵ مگاوات (MWs) برق خورشیدی در سه مکان استفاده می‌کند، جابجا کرد. سوئیچ می‌گوید این پروژه شامل یکی از اولین تاسیسات بزرگ تسلا مگاپک (Tesla Megapack) بوده که یک محصول جدید ذخیره‌سازی انبوه انرژی است و در Tesla Gigafactory در همسایگی سوئیچ در یک پارک تجاری در نزدیکی رنو، تولید می‌شود.

اگرچه سوئیچ به صراحت نگفته‌است که این سامانه چگونه بر استفاده او از مولّدهای دیزلی تأثیر می‌گذارد، اما این شرکت انتظار دارد از تسلا مگاپک برای ایجاد بیش از ۸۰۰ مگاوات ساعت (MWhs) ظرفیت ذخیره انرژی استفاده کند.

مایکروسافت سلول‌های سوخت هیدروژنی را امتحان می‌کند

پیل‌های سوختی یکی دیگر از ابزارهای بالقوه برای بازنگری اساسی در معماری‌های سنتی تولید نیرو در تاسیسات حیاتی برای مأموریت‌ها هستند که نیاز به سامانه‌های گران‌قیمت UPS و مولّدهای اضطراری پشتیبان را از میان بر می‌دارند. در حال حاضر به دلیل چالش‌های اقتصادی موجود استفاده از پیل‌های سوختی در مراکز داده محدود شده‌است، اما این امر در حال تغییر بوده و احتمالاً نگرانی‌های ناشی از تغیرات آب‌وهوایی نیز به‌کارگیری از آنها را تسریع می‌نماید.

اما از چه سوختی استفاده کنیم؟ این یک سوال مهم در پرداختن به موضوع «اثر کربنی» است.

یکی از امیدوارکننده‌ترین آزمایش‌ها در ژوئیه ۲۰۲۰ به نمایش گذاشته‌شد، زمانی که مایکروسافت اعلام کرد استفاده از پیل‌های سوختی هیدروژنی را برای تغذیه سرورهای مرکز داده خود با موفقیت آزمایش کرده‌است. این شرکت این آزمایش را اینگونه توصیف کرد: «اولین نمونه‌ی جهانی در نوع خود که می‌تواند کمک شایانی باشد برای تشکیل اقتصاد انرژی پاک که مدت‌های طولانی انتظار آن رفته‌است، و البته در پیرامون فراوان‌ترین عنصر موجود در کائنات.»

پیل های سوختی هیدروژنی مایکروسافت

مایکروسافت از هیدروژن ذخیره‌شده در مخازن روی تریلی‌های پارک‌شده در خارج از یک آزمایشگاه در نزدیکی سالت لیک سیتی (Salt Lake City)، یوتا (Utah)، برای سوخت‌رسانی به پیل‌های سوختی هیدروژنی که به یک ردیف از سرورهای مرکز داده برق‌رسانی می‌کردند، استفاده کرد. (عکس: نوآوری‌های برق)

مایکروسافت اعلام کرد که با استفاده از یک سامانه پیل سوختی ۲۵۰ کیلوواتی هیدروژنی در تاسیساتی در نزدیکی سالت لیک سیتی، یوتا، یک ردیف شامل ۱۰ رَک از سرورهای ابریِ Microsoft Azure را به مدت ۴۸ ساعت فعال نگاه داشت. از آنجایی که اکثر قطعی‌های برق در مراکز داده کمتر از ۴۸ ساعت به درازا می‌کشند، این آزمایش یک اثبات قوی ارائه داد که می‌توان از پیل‌های سوختی به جای مولّدهای دیزلی برای تداوم عملیات یک مرکز داده در طول زمان قطعی برق، استفاده کرد.

مارک مونرو (Mark Monroe)، سرمهندس توسعه‌ی پیشرفته‌ی مرکز داده در مایکروسافت، می‌گوید: «این بزرگ‌ترین سامانه‌ی برق پشتیبان رایانه‌ها است که اطلاع داریم با هیدروژن کار می‌کند و طولانی‌ترین آزمایش مداوم را پشت سر گذاشته‌است.» او ادامه داد: «قدم بعدی این است که یک سامانه‌ی پیل سوختیِ 3 مگاواتی تهیه و آزمایش شود تا ببینیم که چگونه این سامانه در برابر استقرار بزرگ‌تری از سرورها، مقیاس‌پذیر خواهد بود.»

در سال 2017، در یک پروژه با همکاری مک‌کینستری (McKinstry) و کامینز (Cummins)، این شرکت یک آزمایشگاه پیشرفته‌ی انرژی در سیاتل ایجاد کرد که برق ۲۰ رَک سرور را با پیل‌های سوختیِ مجهز به گاز طبیعی تامین می‌کرد.

در همین حال، شرکت ارائه‌دهنده‌ی خدمات هم‌مکانیِ اکوئینکس (Equinix) همچنان در حال گسترش استفاده از سلول‌های سوختیِ «بلوم انرژی سرور (Bloom Energy Server)» است که از گاز طبیعی استفاده می‌کنند. این شرکت اخیراً اعلام کرده‌است که پردیس پرچم‌دار آن در سیلیکون ولی (Silicon Valley) در جنوب سان خوزه (San Jose) دارای 20 مگاوات ظرفیت «بلوم» خواهد بود و اولین مکانی خواهد بود که اکوئینکس از این سیستم به عنوان مولّد اصلی استفاده می‌کند و شبکه‌ی برق و ژنراتورها نقش منابع پشتیبان را خواهند داشت.

اکوئینکس از «جعبه‌های بلوم» در ۱۲ مرکز داده در کالیفرنیا، نیویورک و لس آنجلس استفاده می‌کند. این شرکت می‌گوید پیل‌های سوختی بلوم ۲۰ تا ۴۵ درصد تمیزتر از معادل همان نیروی برق تولیدشده با استفاده از گاز طبیعی است.

«بلوم انرژی سرور» از فناوری پیل سوختی اکسید جامد استفاده می‌کند که سوخت را از طریق واکنش الکتروشیمیایی و بدون نیاز به احتراق به برق تبدیل می‌کند. این فناوری می‌تواند با گاز طبیعی یا سوخت‌های زیستی مانند بیوگاز حاصل از محل‌های دفن زباله کار کند. بلوم می گوید که پیل‌های سوختی نصب‌شده در محل (On-site) آن با استفاده‌ی کارآمدتر از سوخت نسبت به نیروگاه‌های زغال سنگ، «الکترون‌های بهتری» را ارائه می‌دهند، اتلاف برق در شبکه‌ی توزیع را از بین می‌برند و میزان انتشار گازها را به شدت کاهش می‌دهند. جعبه‌های بلوم مشخصات کربنی بهتری نسبت به بیشتر شبکه‌های تامین‌کننده‌ی برق ارائه می‌دهند و می‌توانند با انرژی‌های تجدیدپذیر نیز برای ایجاد یک راه‌حل کربن‌خنثی (Carbon neutral) استفاده شوند.

در مورد انرژی زمین‌گرمایی (Geothermal) چه‌طور؟

گزینه‌ی دیگر، انرژی زمین‌گرمایی است که به نظر می‌رسد توسعه‌ی آن در چرخه‌ی طولانی‌تری قرار  گرفته باشد. با این حال، این تلاش در حال انجام است، چرا که گوگل به زودی استفاده از انرژی زمین‌گرمایی را برای برق‌رسانی به مراکز داده خود در نِوادا با استفاده از انرژی‌های بدون کربن، آغاز می‌کند. گوگل اولین اپراتور ابریِ اَبَرمقیاس خواهد بود که از حرارت خود زمین برای برق‌رسانی به سرورهایش استفاده می‌کند، رویکردی که قادر است انرژی سبز را در طول شبانه‌روز تأمین نماید.

گوگل قصد دارد با شرکت نوپای فِروُ انرژی (Fervo Energy) که فعال در زمینه‌ی انرژی‌های پاک است، برای توسعه‌ی نسل بعدی پروژه‌های برقی زمین‌گرمایی کار کند که قرار است از سال ۲۰۲۲ شروع به افزودن انرژی بدون کربن به شبکه‌ی برق نِوادا نماید. این سامانه، از کابل‌های فیبر نوری زیرزمینی به عنوان حسگر برای شناسایی بهترین مکان‌ها برای پیدا کردن انرژی زمین‌گرمایی استفاده می‌کند.

مایکل تِرل (Michael Terrell)، مدیر بخش انرژی در گوگل، می‌گوید: «این پروژه‌ی فِروُ نه تنها مراکز داده ما در نِوادا را به بهره‌گیری از انرژی پاک شبانه‌روزی نزدیک می‌کند، بلکه به‌عنوان اثبات مفهومی که نشان می‌دهد چگونه منابع انرژی پاکی چون نسل بعدی زمین‌گرمایی می‌توانند در نهایت کمک کنند که منابع انرژی منتشرکننده‌ی کربن در سراسر جهان جایگزین شوند، نیز عمل می‌کند.»

مسیر پیشِ رو

طبق جمع‌بندی سال گذشته‌ی مؤسسه‌ی آپ‌تایم (Uptime)، رسیدن به هدف از میان برداشتن سوخت‌های دیزلی از زنجیره‌ی عملیات مرکز داده، به دلایل ملاحظات اقتصادی و عملیاتی حاضر، چالش برانگیز است.

آنطور که اندی لارنس (Andy Lawrence)، از مؤسسه آپ‌تایم، در یک مطلب در بلاگ مؤسسه اشاره می‌کند: «تقریباً هر بهره‌بردار و مالک مرکز داده می‌خواهد ژنراتورها را از میان برداشته و آنها را با یک فناوری پاک مدرن‌‌تر جایگزین نماید. اما تا به امروز، هیچ فناوری دیگری به طور موثر نتوانسته است مؤلفه‌هایی چون هزینه‌های عملیاتی پایین، چگالی انرژی، قابلیت اطمینان‌پذیری، کنترل محلی و تا زمانی که سوخت قابل تحویل باشد، تداوم بدون انتهای تامین نیرو را با یکدیگر ترکیب نماید … تعداد اندکی، بسیار اندکی، تنها توانسته‌اند در اندیشه‌ی محیط‌های عملیاتی بدون نیاز به دیزل ژنراتورها باشند.»

خبر خوب اینکه، بزرگ‌ترین و نوآورترین شرکت‌های فناوری جهان در حال کار و سرمایه‌گذاری برای پیشبرد این تغیرات هستند.


منتشر شده در  وب‌سایت Data Center Frontier
برگردان توسط حامد معین‌فر
در شرکت مهندسین فناور پندار آریا – پنداریا