بایگانی برچسب برای: هوش مصنوعی

هدایت چشم‌انداز در حال تغییر در امنیت مراکز داده

عنوان اصلی مقاله: Navigating The Changing Landscape In Data Center Security
تاریخ انتشار و نویسنده: by Tim Liu, Jun 28, 2023
وب‌سایت منتشر کننده: Forbes
 لینک اصلی مقاله

امنیت مراکز داده

گِتی (Getty)

این گونه به نظر می‌رسد که نرخ نوآوری‌ها در فناوری – و بدافزارها – سریع‌تر از هر زمان دیگر در حال رشد است. مدیران عامل (CEOs)، مدیران ارشد مالی (CFOs)، مدیران ارشد امنیت (CSOs) و سایر کسانی که مسؤول حفاظت از داده‌ها – یعنی باارزش‌ترین دارایی‌های یک شرکت – هستند، باید در رأس هرم پیشرفت‌های کلیدی باقی بمانند تا قادر باشند با چشم‌انداز در حال تغییر حوزه‌ی امنیت همگام شوند.

ما در حال مشاهده‌ی سه روند کلیدی در این حوزه هستیم که تلاش‌ها برای برقراری امنیت دسترسی در مراکز داده را در زمان حال و آینده شکل خواهند داد: ظهور هوش مصنوعی (AI) و یادگیری ماشین (ML)، پذیرش فزاینده‌ی اصول اعتماد صفر (Zero-trust principles) و نیاز به امنیتی که بتواند محیط‌های چنداَبری (Multi-cloud environments) را در بر بگیرد.

بهره‌گیری از هوش مصنوعی و یادگیری ماشینی برای افزایش امنیت

هوش مصنوعی و یادگیری ماشینی برای سال‌های متوالی در صنایع و سناریوهای متعدد مورد استفاده قرار گرفته‌اند، اما اخیراً با انتشار چَت‌جی‌پی‌تی (ChatGPT) و ابزارهای مصرفی مشابه دیگر، توانسته‌اند تخیّل عموم را به خود جلب نمایند. در حوزه‌ی امنیت مرکز داده، هوش مصنوعی و یادگیری ماشینی به ویژه برای تقویت سازوکارهای دفاعی، شناسایی ناهنجاری‌ها و شاخص‌های خطر و پاسخ‌دهی خودکار به تهدیدات نوظهور مناسب هستند.

به عنوان نمونه، اِی‌آی و اِم‌اِل قادر هستند با سرعتی بالا مجموعه‌ی داده‌های جمع‌آوری‌شده از گزارش‌ها (Logs) و جریان‌های دیگر اطلاعاتی را برای شناسایی تهدیدات احتمالی، حملات یا سوء‌استفاده از داده‌های شرکت و همچنین پیش‌بینی خطرات و آسیب‌پذیری‌های احتمالی تجزیه و تحلیل کنند. با استفاده از این شیوه‌ها می‌توان با خُرد کردن بسیار سریع حجم عظیمی از داده‌ها، به تیم‌های امنیتی کمک کرد که با توجه به مشغولیت‌های بیش از حد خود از بسیاری از کارهای دستی خسته‌کننده خلاص شوند.

علاوه بر این، آنها قادر هستند نرخ شناسایی کدهای مخرّب (Exploits) کوچک‌تر اما اغلب خطرناک‌تری مانند تهدیدات مستمر پیشرفته (APTs: Advanced persistent threats)، حملات روز صفر (Zero-day attacks) و تهدیدات داخلی را افزایش دهند. همچنین «جامعه‌ی بین‌الملل امنیت صنعتی» یا اَسیس اینترنشنال (ASIS International) خاطرنشان می‌کند: «این امکان وجود دارد که از ابزارهای هوش مصنوعی و یادگیری ماشینی برای کمک به تشخیص تهدیدها قبل از آنکه به بتوانند به سامانه‌ها آسیب برسانند و یا در جمع‌آوری داده‌های جرم‌شناسی برای کمک به واکنش در برابر حوادث و بازیابی از آنها استفاده کرد.»

با این حال، مشابه آنچه در همتایان هوش مصنوعی در رده‌ی مصرف‌کننده دیده می‌شود، ممکن است هوش مصنوعی و یادگیری ماشینی در امنیت مرکز داده نیز منجر به نتایج مثبت کاذب (False positives) شوند و در معرض سوگیری (Bias) قرار بگیرند. با «آموزش» زیرسیستم‌های هوش مصنوعی امنیتی (Security AI) در زمان برقراری تعاملات عادی ترافیکی در مرکز داده و نیز از طریق فنون دیگر، می‌توان دقت و اثربخشی را بهبود بخشید و آنها را با محیط، متناسب ساخت.

هوش مصنوعی و/یا یادگیری ماشینی در انواع فناوری‌های امنیت سایبری از جمله فایروال‌های نسل بعدی (Next-gen firewalls) و مدیریت اطلاعات و رویدادهای امنیتی (SIEM) و همچنین نمونه‌های جدیدتر معرفی‌شده در سکّوهای حفاظت از بارهای کاری ابری (Cloud workload protection)  تعبیه شده‌اند.

کنترل کردن دسترسی: زِدتی‌اِن‌اِی (ZTNA)

در حالی که هوش مصنوعی و یادگیری ماشینی اغلب برای تقویت امنیت «در داخل» مراکز داده استفاده می‌شوند، باید توجه داشت که کنترل اینکه «چه کسی» و «چه چیزی» ممکن است به منابع حیاتی دسترسی داشته باشد نیز حداقل به همان اندازه اهمیت دارد، اگر که حتی اهمیت آن بیشتر نباشد. در نتیجه، مدیران مراکز داده به طور فزاینده‌ای در حال اتخاذ رویکرد دسترسی شبکه با اعتماد صفر یا زِدتی‌اِن‌اِی (ZTNA) هستند که در آن با هر کاربر، دستگاه و یا تعامل، با دید بالقوه مخرّب رفتار می‌شود.

با زِدتی‌اِن‌اِی، تمام تلاش‌ها برای برقراری دسترسی به شبکه تنها پس از پایان عملیات کامل احراز هویت (Authentication) و تجویز دسترسی (Authorization) در سطح چندین عامل تأیید می‌شوند، و حتی همین دسترسی نیز فقط برای منابع مشخص بر اساس آگاهی زمینه‌ای از آن درخواست و «اصول حداقل امتیاز» اعطاء می‌شود. این فرایند در طول نشست به طور مستمر ادامه پیدا می‌کند تا هرگونه تغییر در وضعیت امنیتی یا سایر شاخص‌های تهدید را شناسایی نماید.

اصول اعتماد صفر در تضاد مستقیم با شبکه‌های خصوصی مجازی (VPN) هستند که معمولاً دسترسی را به تمام یک شبکه یا زیرشبکه (Subnet) باز می‌کنند. همچنین وی‌پی‌اِن‌ها به گونه‌ای طراحی شده‌اند که فقط یک بار در شروع نشست هویت کاربران را احراز و مجوز صادر می‌کنند و اغلب از یک سامانه‌ی ورود یکپارچه (SSO: Single Sign-On) برای اعطای دسترسی به طیف گسترده‌ای از خدمات، برنامه‌ها و داده‌ها استفاده می‌کنند.

«دسترسی شبکه با اعتماد صفر» با فلسفه‌ای که برای خود دارد می‌تواند سطح در معرض حمله را کاهش دهد و حتی از حرکات عرضی تهدیدات در مرکز داده جلوگیری نماید؛ مشخصاً «شبکه‌های ربات‌های آلوده» یا بات‌نت‌ها (Botnets)، باج‌افزارها (Ransomwares) و تهدیدهای مشابه دیگر. همچنین قادر است میدان دید را در کل محیط‌های شبکه‌ی فیزیکی و ابری برای پاسخ سریع‌تر به تهدیدات و همچنین ارائه‌ی مدیریت یکپارچه و مقیاس‌پذیری آسان‌تر گسترش دهد.

با این حال، اتخاذ رویکرد زِدتی‌اِن‌اِی (ZTNA) می‌تواند نسبتاً گران باشد و پیکربندی و مدیریت آن نیز اغلب پیچیده است. علاوه بر این، بر محیط پیرامونی تمرکز دارد و معمولاً قادر نیست حملات یا ناهنجاری‌ها را تشخیص دهد. بنابراین همچنان فناوری‌های امنیتی مضاعفی همانند آنچه در بالا ذکر شدند، مورد نیاز خواهند بود.

ایمن‌سازی محیط‌های چنداَبری

سومین روند کلیدی که در امنیت مراکز داده شاهد آن هستیم، گسترش استقرارهای چنداَبری و چالش‌های حفاظت از داده‌ها و برنامه‌ها در این سکّوهای متنوع است. مدیران مراکز داده به طور فزاینده‌ای در حال اتخاذ راهبردهای چنداَبری در جهت افزایش تاب‌آوری و اطمینان‌پذیری داده‌ها و خدمات، اجتناب از وابستگی مالکانه به فروشندگان، کاهش هزینه‌ها و سایر ملاحظات هستند.

با این حال، مراکز داده‌ای که یک محیط چنداَبری را به کار می‌گیرند، سطح در معرض حمله‌ی بسیار وسیع‌تری را نیز در دسترس قرار می‌دهند که منجر به پیچیدگی در عملیات شبکه و امنیت سایبری می‌شود. بنابراین، حفظ میدان دید و کنترل گسترده به یک ملاحظه‌ی کلیدی در طراحی و مدیریت این معماری‌ها تبدیل می‌شود.

برای مثال، سیاست‌ها و کنترل‌های امنیتی باید در سطح تمام ابرها پیاده‌سازی شوند و باید به طور منظم نگهداری و به‌روز نگاه داشته شوند. اغلب، یک سکّوی متمرکز که به گره‌ها یا نودهای (Nodes) محلّی وصل است، قادر است میدان دید و قابلیت پایش و مدیریت مرکزی وضعیت امنیت سایبری را در سراسر محیط چنداَبری فراهم کند. همچنین ممکن است این خدمات یا دستگاه‌ها در جهت ساده‌سازی عملیات، امکاناتی برای خودکارسازی و هماهنگ‌سازی ارائه دهند و در عین حال خطر وقوع خطاهای انسانی را به حداقل برسانند.

علاوه بر این، رمزنگاری داده‌ها – چه در حالت ذخیره و چه در حالت انتقال – می‌تواند وضعیت امنیتی را بیشتر تقویت کند و زِدتی‌اِن‌اِی قادر است محیط پیرامونی را بدون توجه به موقعیت فیزیکی آن، امن سازد.

خلاصه

همچنان که فناوری‌های امنیتی مراکز داده و چشم‌انداز تهدیدات تکامل می‌یابند، این بسیار حیاتی است که با چالش‌های نوظهور سازگار شویم. در حال حاضر این سه روند کلیدی در صدر توجه بسیاری از مدیران ارشد امنیت و سایرینی که مسؤول امنیت مراکز داده و داده‌های حساس موجود در آنها هستند، قرار گرفته‌اند. این و سایر پیشرفت‌ها می‌توانند تاب‌آوری در برابر تهدیدات پیچیده و همچنین دسترسی‌های غیرمجاز یا سوء‌استفاده از داده‌ها را بهبود بخشند.

مدیران رده‌ی ارشد (C-suite) با آگاه‌ماندن از این روندها و سایر روندهای امنیتی، قادر هستند به تیم‌های فناوری خود در اجرای راهبردهای قوی امنیتی که با اهداف کسب‌وکار همسو هستند، کمک کنند.

 

تیموتی لیو (Timothy Liu) مدیر ارشد فناوری (CTO) و یکی از بنیان‌گذاران شبکه‌های هیل‌استون (Hillstone Networks) است . سوابق کامل اجرایی تیم لیو را در این آدرس بخوانید.

منتشر شده در وب‌سایت فوربس Forbes
توسط تیم لیو (Tim Liu)، ۲۸ ژوئن ۲۰۲۳
برگردان توسط حامد معین‌فر
در شرکت مهندسین فناور پندار آریا – پنداریا

چَت‌جی‌پی‌تی نیاز دارد برای هر ۲۰ الی ۵۰ سوالی که پرسیده می‌شود، یک بطری کامل آب شیرین «بنوشد»

عنوان اصلی مقاله: ChatGPT needs to ‘drink’ a water bottle’s worth of fresh water for every 20 to 50 questions you ask
تاریخ انتشار و نویسنده: by Will Gendron, Apr 14, 2023
وب‌سایت منتشر کننده: Business Insider
 لینک اصلی مقاله

تخمین زده می‌شود که چَت‌جی‌پی‌تی برای هر ۲۰تا ۵۰ پرسش و پاسخ، یک بطری استاندارد ۵۰۰ گرمی آب مصرف می‌کند. عکس از نارایان ماهارجان (Narayan Maharjan) /نورفوتو (NurPhoto) از طریق گِتی ایمِجز (Getty Images)

 

با هجوم عموم مردم به سمت ابزارهای هوش مصنوعی مولّد از جمله چَت‌جی‌پی‌تی (ChatGPT)، تأثیر زیست‌محیطی این فناوری جدید در شرف آشکارشدن است.

هر چند تا این لحظه داده‌های بسیار کمی در مورد هوش مصنوعی و قابلیت پایدارپذیری (Sustainability) آن وجود دارد، نوک پیکان مطالعه‌ی اخیر مشترک میان محقّقان دانشگاه کالیفرنیا در ریورساید (Riverside) و دانشگاه تگزاس در آرلینگتون (Arlington) به سمت ردّپای آبی مدل‌های هوش مصنوعی از جمله GPT-3 و GPT-4 از اُپن‌اِی‌آی (OpenAI) نشانه رفته‌است.

تخمین زده شده‌است که مایکروسافت در حین آموزش GPT-3 در مراکز داده‌ی خود، ۷۰۰٬۰۰۰ لیتر یا حدود ۱۸۵٬۰۰۰ گالن آب شیرین مصرف کرده‌است. این مقدار آب، طبق گفته‌ی گیزمودو (Gizmodo) برای پر کردن برج خنک‌کننده‌ی یک راکتور هسته‌ای کافی است، و نیز برابر با همان مقداری است که برای تولید ۳۷۰ خودروی بی‌ام‌و (BMW) یا ۳۲۰خودروی تسلا (Tesla) استفاده می‌شود.

با استفاده از این اعداد، مشخص شده‌است که چَت‌جی‌پی‌تی برای هر ۲۰ تا ۵۰ سوالی که پاسخ می‌دهد به ۵۰۰ میلی‌لیتر آب یا یک بطری بزرگ آب آشامیدنی احتیاج دارد.

نویسندگان این مطالعه، با توجه به پایگاه بزرگان کاربران چَت‌جی‌پی‌تی می‌گویند: «هرچند ممکن است یک بطری آب ۵۰۰ میلی‌لیتری خیلی زیاد به نظر نرسد، اما مجموع ترکیب ردّپای آبی تا رسیدن کاربران به نتیجه استنتاجات خود همچنان بسیار زیاد است».

یکی از سخن‌گویان شرکت مایکروسافت در بیانیه‌ای به اینسایدر (Insider) گفت: مایکروسافت «در حال سرمایه‌گذاری تحقیقاتی بر روی اندازه‌گیری مصرف انرژی و تاثیر کربنی هوش مصنوعی است، در حالی که هم‌زمان بر روی راهکارهایی برای کارآمدترسازی سامانه‌های بزرگ، چه در زمان آموزش و چه در زمان کاربرد هوش مصنوعی کار می‌کند.»

او افزود: «ما هم‌چنان به سرمایه‌گذاری در خرید انرژی‌های تجدیدپذیر و سایر تلاش‌ها برای دستیابی به اهداف خود در پایدارپذیری، یعنی منفی‌شدن کربنی (Carbon Negative)، مثبت‌شدن آبی (Water Positive) و صفرشدن ضایعاتی (Zero Waste) تا سال 2030 ادامه می‌دهیم.»

اُپن‌اِی‌آی به درخواست‌های اینسایدر برای اظهار نظر در این خصوص پاسخی نداد.

مدل‌های هوش مصنوعی از جمله GPT-3 و GPT-4 در مراکز داده میزبانی می‌شوند، که انبارهایی هستند فیزیکی که ردیف‌های بزرگی از سرورهای محاسباتی را در خود جای داده‌اند. کار این سرورها شناسایی روابط و الگوها در میان مجموعه‌ی عظیمی از داده‌ها می‌باشد که به نوبه‌ی خود مصرف‌کننده‌ی انرژی هستند؛ چه از نوع برق باشد یا زغال سنگ، انرژی هسته‌ای یا گاز طبیعی.

منابع قابل توجهی از انرژی در فرایند آموزش هوش مصنوعی مصرف شده که بلافاصله تبدیل به گرما می‌شوند. سپس از منابع آب موجود در محل برای کنترل دما در کل زیرساخت‌ها استفاده می‌شود. بر مبنای این مطالعه، برای کنترل رطوبت در سطح مناسب و نیز از آنجایی که آب شور می‌تواند منجر به خوردگی، گرفتگی لوله‌های آب و رشد باکتری‌ها شود، برای این منظور آب شیرین مورد نیاز می‌باشد.

به گفته‌ی محقّقان، در این مسیر رو به جلو، این ارقام می‌توانند «برای GPT-4 که تازه راه‌اندازی شده‌است و اندازه‌ی مدل بسیار بزرگ‌تری دارد، چندین برابر افزایش یابد.»

تیم محقّقان با استفاده از یک روش متعلّق به خود که اثربخشی مصرف آب (WUE) در محل و خارج از محل مرکز داده را محاسبه می‌کند، موفّق شده‌اند علاوه بر مصرف انرژی، تخمین‌هایی را نیز از ردّپای آبی مدل زبان بزرگ گوگل که لامدا (LaMDA) نامد دارد، به‌دست آورند.

با این حال، عدم وجود شفافیت در خصوص ارقام آب مصرفی مرتبط با آموزش هوش مصنوعی، در نهایت تعیین دقیق ردّپای واقعی آبی را دشوار می‌سازد. وقتی از گوگل در خصوص مصرف آب لامدا سوال شد، ما را به گزارش نوامبر ۲۰۲۲ خود ارجاع داد که در آن داده‌های سال ۲۰۲۱ مصرف گسترده‌ی آب در مراکز داده منتشر شده‌است.

محقّقان نوشته‌اند: «در حالی که نمی‌توان بدون وجود داده‌های دقیق از گوگل ردّپای واقعی آبی را شناخت، تخمین ما نشان می‌دهد که کل ردّپای آبی آموزش لامدا به مراتبی در حدود میلیون‌ها لیتر است.»

در حالی که ردّپای کربنی درگیر در هوش مصنوعی مولّد، زنگ‌های خطر را به صدا در آورده‌است، محقّقان می‌گویند که مقاله‌ی آنها به دنبال این است که «ضرورت پرداختن به ردّپای آبی در کنار ردّپای کربنی را برای امکان‌دادن به هوش مصنوعی واقعاً پایدار‌پذیر، برجسته نماید.»

منتشر شده در وب‌سایت Business Insider
توسط ویل گِندرون (Will Gendron) ، ۱۴ آوریل ۲۰۲۳
برگردان توسط حامد معین‌فر
در شرکت مهندسین فناور پندار آریا – پنداریا

هوش مصنوعی چگونه مدیریت پروژه‌ها را متحوّل خواهد کرد

عنوان اصلی مقاله: How AI Will Transform Project Management
تاریخ انتشار و نویسنده: by Antonio Nieto-Rodriguez and Ricardo Viana Vargas, February 02, 2023
وب‌سایت منتشر کننده: Harvard Business Review
 لینک اصلی مقاله

خلاصه: امروزه، تنها ۳۵درصد از پروژه‌ها با موفقیت به سرانجام می‌رسند. یکی از دلایل این نرخ ناامیدکننده در سرنوشت پروژه‌ها، سطح پایین بلوغ فناوری‌های در دسترس برای مدیریت پروژه‌ها است. امّا اکنون این وضعیت در حال تغییر است. محقّقان، شرکت‌های نوپا و سازمان‌های نوآور، شروع به بهره‌گیری از هوش مصنوعی (AI)، یادگیری ماشینی (ML) و سایر فناوری‌های پیشرفته در مدیریت پروژه‌ها کرده‌اند و این حوزه تا سال ۲۰۳۰ دستخوش تغییرات اساسی خواهدشد. به زودی این دست از فناوری‌ها انتخاب و اولویت‌بندی پروژه‌ها را بهبود خواهند بخشید، بر پیشرفت آنها نظارت خواهند کرد، سرعت تولید گزارشات را افزایش خواهند داد و موجب تسهیل در آزمون‌های تحویل خواهند شد. مدیران پروژه، با بهره‌گیری دستیاران مجازی در پروژه‌ها، بیشتر از آنکه نقش خود را بر کارهای اداری و دستی متمرکز سازند، به مربّی‌گری اعضای تیم پروژه و مدیریت انتظارات ذی‌نفعان خواهند پرداخت. نویسندگان این مقاله می‌خواهند نشان دهند که چگونه سازمان‌هایی که تمایل دارند از مزایای فناوری‌های نوین در مدیریت پروژه‌ها بهره ببرند، باید از همین امروز کار خود را با جمع‌آوری و پاک‌سازی داده‌های موجود در پروژه‌ها آغاز نمایند.

تصوّر نمایید در آینده‌ای نزدیک، مدیر عامل یک شرکت بزرگ ارائه‌دهنده‌ی خدمات مخابراتی چگونه از یک برنامه‌ی کاربردی بر روی گوشی هوشمند خود برای بررسی آخرین وضعیت «هفت ابتکار راهبردی» که در سازمان او در حال اجراست، استفاده خواهد کرد. تنها با چند اشاره، او از وضعیت هر پروژه و این‌که چند درصد از مزایای مورد انتظار در آن پروژه محقّق شده‌اند مطلع می‌شود. در هر لحظه، منشورهای پروژه (Project Charters) و شاخص‌های کلیدی عملکرد (KPI) در دسترس او هستند، همین‌طور سطح روحیه‌ی هر یک از اعضای تیم پروژه و میزان کلّی رضایت ذی‌نفعان کلیدی.

او به عمق بیشتری از جزئیات «اقدام ابتکاری برای بازسازی نام تجاری سازمان» دسترسی دارد. چند ماه پیش‌تر، یک رقیب بزرگ، یک خط تجاری جدید اصطلاحاً «سبز» راه‌اندازی کرده‌بود که باعث شد شرکت او نیز سرعت پیاده‌سازی راه‌حل‌های مبتنی بر قابلیت‌های پایداری (Sustainability) را افزایش دهد. بر اساس مؤلّفه‌های انتخاب‌شده در زمان آغاز این «اقدام ابتکاری» توسط مدیر پروژه و تیم پروژه، بسیاری از خودتنظیم‌گرهای مبتنی بر هوش مصنوعی از قبل اعمال شده‌اند. این برنامه‌ی کاربردی، مدیر عامل را از هر تغییری که نیاز به توجّه داشته‌باشد – و همچنین مخاطرات بالقوه‌ی ناشی از آن تغییرات – آگاه می‌سازد و تصمیماتی را که او باید اتخاذ نماید اولویت‌بندی کرده و راه‌حل‌های بالقوه را نیز برای هر کدام از آن موضوعات پیشنهاد می‌کند.

مدیر عامل قبل از هر انتخاب یا اقدامی، ابتدا با مدیر پروژه که اکنون بیشتر وقت خود را صرف مربّی‌گری و پشتیبانی از تیمش کرده‌است، ارتباط خود با سهامداران کلیدی را به صورت منظّم حفظ نموده و یک فرهنگ با عملکرد بالا را پرورش داده‌است، تماس می‌گیرد. چند هفته پیش، پروژه دچار اندکی تأخیر شده‌بود و برنامه‌ی کاربردی روی گوشی هوشمند مدیر عامل به او توصیه کرده‌بود که تیم باید از شیوه‌های چابک (Agile) برای سرعت‌بخشیدن به یک رشته‌ی خاص از فعالیت‌ها در پروژه بهره بگیرد.

در طول جلسه، آنها راه‌حل‌های احتمالی را شبیه‌سازی کرده و در خصوص مسیر پیشِ رو به توافق می‌رسند. برنامه‌ی پروژه به طور خودکار به‌روز شده و پیام‌هایی ارسال می‌شوند تا اعضای مرتبط در تیم و ذی‌نفعان پروژه را از تغییرات و پیش‌بینی نتایج مورد انتظار ناشی از آن تغییرات مطّلع نماید.

به لطف فناوری‌ها و روش‌های جدید کاری، یک پروژه‌ی راهبردی که احتمال داشت از کنترل خارج شود – یا شاید حتّی منجر به شکست شود – اکنون دوباره در مسیر صحیح منتج به موفقیت و حصول نتایج مورد انتظار قرار گرفته‌است.

چنانچه به زمان حال بازگردیم، مدیریت پروژه‌ها همواره به همین راحتی‌ها پیش نمی‌رود، اما این آینده‌ای است که آن را برای شما ترسیم کردیم و احتمالاً کوتاه‌تر از یک دهه‌ی دیگر به حقیقت خواهد پیوست. برای اینکه زودتر به آنجا برسیم، سازمان‌ها و نوآوران باید از هم‌اکنون بر روی فناوری‌های مدیریت پروژه سرمایه‌گذاری نمایند.

مدیریت پروژه‌ها در زمان حال و مسیر پیشِ روی آن

هر ساله حدود ۴۸ تریلیون دلار در پروژه‌های مختلف سرمایه‌گذاری می‌شود. با این حال، طبق آمار گروه اِستَندیش (Standish)، تنها ۳۵ درصد از پروژه‌ها موفّق ارزیابی می‌شوند. در ۶۵ درصد دیگر پروژه‌ها میزان هَدررفت منابع و مزایای تحقّق‌نیافته مایه‌ی شگفتی است.

سال‌هاست که در تحقیقات و انتشارات خود، نوسازی روش‌های مدیریت پروژه را ترویج کرده‌ایم. متوجّه شده‌ایم که یکی از دلایلی که موجب نرخ موفقیت بسیار ضعیف در پروژه‌ها است، سطح پایین بلوغ فناوری‌های موجود برای مدیریت آنها است. اکثر سازمان‌ها و رهبران پروژه هم‌چنان از «صفحات گسترده» (Spreadsheets)، اسلایدها و سایر برنامه‌هایی استفاده می‌کنند که در چند دهه‌ی گذشته پیشرفت چندانی نداشته‌اند. شاید این ابزارها برای ارزیابی موفقیت پروژه با اندازه‌گیری نتایج قابل تحویل (Deliverables) و موعدهای مقرّر (Deadlines) کافی باشند، اما این ابزارها در محیطی که پروژه‌ها و اقدامات ابتکاری همواره در حال تطبیق با شرایط جدید هستند و کسب‌وکار به طور مداوم تغییر می‌کند، ناکافی هستند. پیشرفت‌هایی در برنامه‌های مدیریت سبد (پورتفوی) پروژه‌ها حاصل شده‌است، اما هنوز قابلیت برنامه‌ریزی برای ایجاد همکاری‌های بین تیمی، خودکارسازی و بهره‌گیری از ویژگی‌های «هوشمند» وجود ندارد.

اگر در مدیریت پروژه‌ها هوش مصنوعی و سایر نوآوری‌های مبتنی بر فناوری قادر باشند نسبت موفقیت در آنها را تنها تا ۲۵ درصد بهبود بخشند، ارزش و مزایای به‌کارگیری این ابزارها برای سازمان‌ها، جوامع و افراد معادل تریلیون‌ها دلار خواهد بود. تمام هسته‌های فناوری که در داستان بالا شرح داده شدند همین حالا نیز آماده‌ی بهره‌برداری هستند؛ اکنون تنها سؤال این است که با چه سرعتی می‌توان این ابزارها را به طور مؤثّری در مدیریت پروژه‌ها اعمال کرد.

تحقیقات گارتنر (Gartner) نشان می‌دهند که تغییرات به سرعت در راه هستند و پیش‌بینی می‌کنند که تا سال ۲۰۳۰، ۸۰ درصد از وظایف مدیران پروژه توسط هوش مصنوعی که از کلان‌داده‌ها (Big Data)، یادگیری ماشینی (ML) و پردازش زبان طبیعی (NLP) پشتیبانی می‌کند، اجرا خواهند شد. تعدادی از محقّقان، مانند پُل بودریو (Paul Boudreau) در کتاب خود، استفاده از ابزارهای هوش مصنوعی در مدیریت پروژه، و تعداد فزاینده‌ای از شرکت‌های نوپا، مجموعه‌ای از الگوریتم‌ها (خوارزمی‌ها!) را برای به‌کارگیری هوش مصنوعی و یادگیری ماشینی در دنیای مدیریت پروژه توسعه داده‌اند. زمانی که این نسل بعدی از ابزارها به طور گسترده مورد استفاده قرار گیرند، تغییرات اساسی نیز  به وقوع خواهند پیوست.

شش جنبه از مدیریت پروژه که متحوّل خواهند شد

ما پیشرفت‌های فناورانه‌ی پیشِ رو را فرصتی می‌بینیم که هیچ‌گاه وجود نداشته‌اند. آن سازمان‌ها و رهبران پروژه‌ای که بیشترین آمادگی را برای این لحظه‌ی تحوّل‌آفرین دارند، بیشترین پاداش را از آن کسب خواهند کرد. تقریباً تمام جنبه‌های مدیریت پروژه، از برنامه‌ریزی گرفته تا فرایندها و افراد درگیر در پروژه‌ها، تحت تأثیر قرار خواهند گرفت. بیایید نگاهی به این شش حوزه‌ی کلیدی بیندازیم.

۱- انتخاب و اولویت‌بندی بهتر پروژه‌ها

انتخاب و اولویت‌بندی، هر دو مهارت‌هایی از نوع پیش‌بینی هستند: کدام پروژه‌ها بیشترین ارزش را برای سازمان خواهند آفرید؟ چنانچه داده‌های صحیح در دسترس باشند، یادگیری ماشینی قادر است الگوهایی را تشخیص دهد که با روش‌های دیگر قابل تشخیص نیستند و لذا می‌تواند بسیار فراتر از دقّت انسان‌ها در انجام پیش‌بینی‌ها برود. اولویت‌بندی مبتنی بر یادگیری ماشینی به زودی منجر به حصول مزیّت‌های زیر خواهد شد:

– شناسایی سریع‌تر آن دسته از پروژه‌های آماده به کار که پایه و اساس اولیه‌ی یک پروژه را در اختیار دارند
– انتخاب پروژه‌هایی که شانس موفقیت بیشتری دارند و بالاترین آورده را برای سازمان خواهند داشت
– تعادل بهتر در سبد پروژه‌ها و ارائه‌ی نمای اجمالی از وضعیت مخاطرات در سازمان
– حذف سوگیری‌های انسانی از فرایندهای تصمیم‌گیری

۲- پشتیبانی از دفاتر مدیریت پروژه

شرکت‌های نوپا در زمینه‌ی تجزیه‌وتحلیل و خودکارسازی داده‌ها اکنون به سازمان‌ها این یاری را می‌رسانند تا نقش دفاتر مدیریت پروژه (PMO) را ساده و بهینه سازند. معروف‌ترین نمونه‌ی آن، استفاده‌ی رئیس‌جمهور فرانسه امانوئل ماکرون از جدیدترین فناوری برای به‌روز نگاه‌داشتن اطلاعات خود در خصوص تمامی پروژه‌های بخش عمومی فرانسه است. این ابزارهای هوشمند جدید، نحوه‌ی عملیات و عملکرد دفاتر مدیریت پروژه را به طور اساسی در موارد زیر تغییر خواهند داد:

– نظارت بهتر بر پیشرفت پروژه‌ها
– قابلیت پیش‌بینی مشکلات احتمالی و رسیدگی خودکار به برخی از موارد که ساده‌تر هستند
– تهیه و توزیع خودکار گزارش‌های پروژه و جمع‌آوری بازخوردها از مخاطبین
– پیچیدگی بیشتر در انتخاب بهترین روش مدیریت پروژه برای هر پروژه‌ی خاص
– نظارت بر وضعیت انطباق پروژه‌ها با فرایندها و سیاست‌ها
– خودکارسازی کارکردهای پشتیبان، با بهره‌گیری از دستیارهای مجازی پروژه، همچون به‌روزرسانی وضعیت‌ها، ارزیابی مخاطرات و تجزیه‌وتحلیل ذی‌نفعان

۳- تسریع و بهبود در تعریف، برنامه‌ریزی و گزارش‌دهی پروژه‌ها

یکی از حوزه‌های بیشتر توسعه‌یافته برای خودکارسازی مدیریت پروژه، موضوع مدیریت مخاطرات است. برنامه‌های کاربردی جدید از کلان‌داده‌ها و یادگیری ماشینی برای کمک به رهبران و مدیران پروژه برای پیش‌بینی مخاطراتی که در غیر این صورت ممکن بود مورد توجه قرار نگیرند، استفاده می‌کنند. این ابزارها می‌توانند اقداماتی برای تخفیف مخاطرات (Risk Mitigation) پیشنهاد دهند و به زودی خواهند توانست برنامه‌های مدیریت مخاطرات را به طور خودکار به نحوی که موجب جلوگیری از بروز انواع خاصی از مخاطرات شوند، تنظیم نمایند.

رویکردهای مشابه دیگری نیز به زودی تعریف، برنامه‌ریزی و گزارش‌دهی در پروژه‌ها را تسهیل خواهند کرد. در حال حاضر انجام این تکالیف زمان‌بر، تکراری و بیشتر آنها دستی هستند. یادگیری ماشینی، پردازش زبان طبیعی و خروجی متن ساده (Rich text) منجر به دستاوردهای زیر خواهند شد:

– بهبود مدیریت محدوده در پروژه‌ها با خودکارسازی جمع‌آوری و تجزیه‌وتحلیل زمان‌بر دانسته‌های کاربران. این ابزارها مشکلات احتمالی‌ای مانند ابهامات، تکرارها، جا افتادن‌ها، ناهماهنگی‌ها و پیچیدگی‌ها را آشکار می‌سازند.
– ابزارهایی برای تسهیل فرایندهای زمان‌بندی و پیش‌نویسی برنامه‌های تفصیلی و مدیریت تقاضا برای تخصیص منابع در پروژه‌ها
– گزارش‌دهی خودکار به نحوی که نه تنها گزارشات با کار کمتری تولید خواهند شد، بلکه اطلاعات موجود در گزارش‌های امروزی، که اغلب چندین هفته قدیمی هستند، با داده‌های بی‌درنگ جایگزین می‌شوند. همچنین این ابزارها عمیق‌تر از آنچه که اکنون امکانش وجود داشته باشد در داده‌ها کنکاش خواهند کرد و وضعیت پروژه‌ها، مزایای به‌دست‌آمده، لغزش‌های احتمالی و احساسات درون‌تیمی را به روشی واضح و عینی نشان می‌دهند.

۴- دستیاران مجازی پروژه

در عمل چَت‌جی‌پی‌تی (ChatGPT) یک شبه درک جهان را نسبت به آنکه چگونه هوش مصنوعی قادر است مجموعه‌ای از داده‌ها را تجزیه‌وتحلیل نموده و بینش‌های جدید و آنی را در قالب خروجی متن ساده تولید کند، تغییر داد. ابزارهایی از این دست در مدیریت پروژه‌ها، به «ربات‌ها» یا «دستیاران مجازی» قدرت می‌بخشند. اوراکل (Oracle) اخیراً دستیار دیجیتالی مدیریت پروژه‌ی جدیدی را معرفی کرده‌است که امکان به‌روزرسانی آنی وضعیت‌ها در پروژه را ارائه می‌دهد و به کاربران کمک می‌کند تا زمان و پیشرفت کارها را از طریق متن، صدا یا گَپ (Chat) به‌روزرسانی نمایند.

این دستیار دیجیتالی از داده‌های قبلی واردشده برای ثبت زمان‌ها، داده‌های برنامه‌ریزی پروژه و زمینه‌ی کلی پروژه یاد می‌گیرد تا تعاملات را تنظیم کرده و اطلاعات حیاتی پروژه را به‌طور هوشمندانه ثبت نماید. پی‌موتو (PMOtto) یک دستیار مجازی پروژه با قابلیت یادگیری ماشینی است که در حال حاضر نیز استفاده می‌شود. یک کاربر می‌تواند از پی‌موتو بخواهد: «برنامه‌ی جان (John) را برای نقاشی دیوارها در هفته آینده تنظیم کن و او را تمام وقت به این کار تخصیص بده». دستیار ممکن است پاسخ دهد، «بر اساس وظایف مشابه قبلی که به جان اختصاص داده شده‌اند، به نظر می‌رسد که او برای انجام کار به دو هفته زمان نیاز داشته باشد و نه یک هفته آنطور که شما درخواست کردید. آیا باید آن را تنظیم کنم؟»

۵- سامانه‌ها و نرم‌افزارهای پیشرفته برای آزمون نتایج

آزمون نتایج تحویل‌دادنی یکی دیگر از وظایف ضروری در اکثر پروژه‌ها هستند و مدیران پروژه مجبور هستند این آزمون‌ها را با سرعت و تداوم انجام دهند. امروزه به ندرت می‌توان پروژه‌ای بزرگ را یافت که فاقد چندین سامانه و انواع نرم‌افزارهایی باشد که باید قبل از تحویل پروژه آزمایش شوند. به زودی و به‌طور گسترده، سامانه‌های پیشرفته‌ی آزمون که اکنون فقط برای پروژه‌های بزرگ قابل استفاده هستند، بیشتر در دسترس خواهند بود.

خط ریلی الیزابت که بخشی از پروژه‌ی کراس‌ریل (Crossrail) در بریتانیا است، یک راه‌آهن پیچیده با ایستگاه‌های جدید، زیرساخت‌های جدید، مسیرهای جدید و قطارهای جدید است. بنابراین، مهم است که تک‌تک عناصر پروژه از یک فرایند آزمون و راه‌اندازی دقیق برای اطمینان از ایمنی و قابلیت اطمینان‌پذیری در آنها، عبور داده شوند. این عملیات به ترکیبی از سخت‌افزارها و نرم‌افزارهایی که قبلاً وجود نداشتند نیاز داشت و پس از چالش‌های اولیه، تیم پروژه «تأسیسات یکپارچه‌سازی کراس‌ریل» را توسعه داد. این تأسیسات آزمون کاملاً خودکار که خارج از سایت پروژه قرار دارد، اکنون ثابت کرده‌است که چه ارزش غیرقابل اندازه‌گیری‌ای در افزایش کارایی، به‌صرفه‌سازی و انعطاف‌پذیری سامانه‌ها داشته‌است. مهندس این سامانه، اَلِساندرا شول-اِستِرنبرگ (Alessandra Scholl-Sternberg) برخی از ویژگی‌های آن را این‌گونه شرح می‌دهد: «کتابخانه‌ی گسترده‌ای از خودکارسازی سامانه‌ها نوشته شده‌است که امکان دستیابی به تنظیمات پیچیده، انجام دقیق بررسی‌های سلامت، انجام آزمون‌های استقامتی در دوره‌های طولانی و اجرای آزمون‌هایی با ماهیت تکراری را فراهم می‌سازند.» در این مرکز ، امکان انجام ممیزی‌های دقیق به‌صورت ۲۴×۷ بدون نگرانی از مخاطرات و تأثیر ناشی از سوگیری کاربران سامانه وجود دارد.

به زودی، راه‌حل‌های پیشرفته و خودکار برای انجام آزمون سامانه‌ها در پروژه‌های نرم‌افزاری، امکان تشخیص زودهنگام عیوب و اجرای فرایندهای خوداصلاح‌گر را فراهم می‌سازند. این امر زمان صرف‌شده برای فعالیت‌های دست‌وپاگیر در آزمون‌ها را به میزان قابل توجهی کاهش می‌دهد، تعداد دوباره‌کاری‌ها را کم می‌کند و در نهایت راه‌حل‌هایی با کاربری آسان و بدون اشکال ارائه می‌دهد.

۶- یک نقش جدید برای مدیران پروژه

ممکن است خودکارسازیِ بخش قابل توجهی از وظایف فعلی مدیران پروژه، برای بسیاری از آنها ترسناک باشد، اما افراد موفّق یاد خواهند گرفت که از این ابزارها به نفع خود استفاده نمایند. مدیران پروژه حذف نخواهند شد، بلکه مجبور خواهند شد این تغییرات را بپذیرند و از فناوری‌های جدید بهره ببرند. ما در حال حاضر تیم‌های چندتخصّصی در پروژه‌ها را با ترکیبی متشکّل از افراد مختلف می‌شناسیم، اما ممکن است به زودی آنها را به شکل گروه‌هایی متشکّل از انسان‌ها و ربات‌ها در کنار یکدیگر ببینیم.

در آینده مدیران پروژه با دور شدن از کارهای اداری، باید مهارت‌های قوی نرم، قابلیت‌های رهبری، تفکّر راهبردی و هوش تجاری را در خود پرورش دهند. آنها باید بر حصول منافع مورد انتظار و هم‌سویی آن منافع با اهداف راهبردی سازمان تمرکز نمایند. همچنین آنها به یک درک خوب از این فناوری‌ها نیاز خواهند داشت. برخی از سازمان‌ها در حال حاضر نیز هوش مصنوعی را در برنامه‌های آموزشی و صدور گواهینامه‌های مدیریت پروژه‌ی خود وارد کرده‌اند؛ دانشگاه نورث‌ایسترن (Northeastern University) هوش مصنوعی را در برنامه‌های آموزش خود گنجانده است و به مدیران پروژه آموزش می‌دهد که چگونه از هوش مصنوعی برای خودکارسازی و بهبود مجموعه‌ی داده‌ها و بهینه‌سازی ارزش سرمایه‌گذاری در پروژه‌ها استفاده نمایند.

داده‌ها و انسان‌ها به آینده واقعیت می‌بخشند

چگونه می‌توانید اطمینان داشته‌باشید، زمانی که این ابزارها برای استفاده در سازمان‌ها به آمادگی کافی برسند، سازمان شما نیز آمادگی لازم برای استفاده از آنها را خواهد داشت؟ هر فرایند پذیرش فناوری‌های هوش مصنوعی در سازمان با آماده‌سازی داده‌ها آغاز می‌شود، اما شما نباید نسبت به آماده‌سازی افراد تیم خود نیز کوتاهی نمایید.

آموزش الگوریتم‌های هوش مصنوعی برای مدیریت پروژه‌ها به مقادیر زیادی داده‌های مرتبط با پروژه احتیاج دارد. شاید سازمان شما مجموعه‌ای از داده‌های تاریخی پروژه‌ها را حفظ کرده‌باشد، اما به احتمال زیاد این داده‌ها در هزاران سند در قالب‌های مختلف پراکنده هستند و در سامانه‌های متعدّد ذخیره‌سازی شده‌اند. این اطلاعات ممکن است قدیمی باشند، ممکن است از طبقه‌بندی‌های مختلف استفاده کرده‌باشند، یا حاوی داده‌های بی‌ربط و یا شکاف‌هایی در داده‌های اصلی باشند. تقریباً 8۰ درصد از زمان صرف‌شده برای آماده‌سازی الگوریتم‌های یادگیری ماشینی بر روی جمع‌آوری و پاک‌سازی داده‌ها تمرکز دارد که طی آن، داده‌های خام و بدون ساختار به داده‌های ساختاریافته‌ای تبدیل می‌شوند که قادر هستند یک مدل یادگیری ماشینی را آموزش دهند.

هرگز تحوّل هوش مصنوعی در سازمان شما بدون وجود داده‌های در دسترس و داده‌های مدیریت‌شده‌ی مناسب اتفاق نخواهد افتاد؛ اما اگر خود و تیم‌تان را برای تغییر آماده نکنید‌ نیز هیچ تحوّلی در هوش مصنوعی شکوفا نخواهد شد.

این نسل جدید از ابزارها نه تنها فناوری‌هایی را که ما در مدیریت پروژه‌ها استفاده می‌کنیم تغییر می‌دهند، بلکه کار ما را نیز به کلی در پروژه‌ها متحوّل خواهند کرد. مدیران پروژه باید برای مربّی‌گری و آموزش تیم‌های خود جهت انطباق با این انتقال آماده باشند. آنها باید تمرکز خود را بر روی تعاملات انسانی افزایش دهند و در عین حال کاستی‌های مهارتی فناورانه را در افراد خود شناسایی کرده و برای رفع آنها تلاش نمایند. مدیران پروژه باید علاوه بر تمرکز بر نتایج تحویل‌دادنی در پروژه‌ها، بر ایجاد تیم‌هایی با عملکرد بالا نیز تمرکز نمایند، به گونه‌ای که اعضای تیم آنچه را که به آنها اجازه می‌دهد بهترین عملکرد را از خود نشان دهند، در اختیار دارند.

اگر به طور جدی در حال بررسی استفاده از هوش مصنوعی در پروژه‌ها و شیوه‌های مدیریت پروژه‌ی خود هستید، سؤالات زیر به شما کمک می‌کنند تصمیم خود را بهتر ارزیابی نمایید؛

– آیا این آمادگی را دارید تا برای تهیه فهرست دقیقی از تمام پروژه‌های در اختیار خود، از جمله آخرین وضعیت به‌روزشده در آنها، زمان صرف نمایید؟
– آیا قادر هستید بخشی از منابع خود را چندین ماه برای جمع‌آوری، پاک‌سازی و ساختارمندسازی داده‌های موجود در پروژه‌های خود اختصاص دهید؟
– آیا تصمیم خود را گرفته‌اید که عادات قدیمی مدیریت پروژه‌ی خود را از جمله گزارش‌های پیشرفت ماهانه کنار بگذارید؟
– آیا آماده‌ی سرمایه‌گذاری در آموزش مجموعه‌ی مدیریت پروژه‌ی خود برای استفاده از این فناوری‌های جدید هستید؟
– آیا آنها نیز تمایل دارند از مناطق سنّتی آسایش خود خارج شوند و نحوه‌ی مدیریت پروژه‌های خود را به طور اساسی تغییر دهند؟
– آیا سازمان شما آماده‌ی پذیرش و به‌کارگیری یک فناوری جدید و واگذاری کنترل تصمیمات به مراتب مهم‌تر به آن است؟
– آیا حاضر هستید اجازه دهید که این فناوری مرتکب اشتباه نیز بشود تا یاد بگیرد که برای سازمان شما چگونه عملکرد بهتری داشته باشد؟
– آیا حامی اجرایی در این پروژه، توانایی و اعتبار لازم در سازمان شما را دارد تا رهبری این تحوّل را در دست بگیرد؟
– آیا رهبران ارشد مایل هستند چندین ماه تا یک سال، منتظر بمانند تا مزایای خودکارسازی را مشاهده نمایند؟

اگر پاسخ به همه‌ی این سوالات مثبت است، پس شما آماده‌ی شروع این تحوّل پیشگام هستید. اگر یک یا چند پاسخ «نه» دارید، باید قبل از حرکت آنها را به سمت «بله» سوق دهید.

•••

همانطور که دیدیم، استفاده از هوش مصنوعی در مدیریت پروژه‌ها مزایای قابل توجهی را به همراه خواهد داشت، نه تنها در خودکارسازی وظایف اداری و کم‌ارزش، بلکه مهمتر از آن، هوش مصنوعی و سایر فناوری‌های مخرّب در جعبه‌ی ابزار شما از جمله به سازمان شما کمک می‌کنند رهبران و مدیران پروژه، پروژه‌ها را با موفقیت بیشتری انتخاب، تعریف و اجرا نمایند.

مدیر عامل داستان ما زمانی در موقعیتی قرار داشت که شما امروز در آن قرار گرفته‌اید. ما شما را تشویق می‌کنیم که از هم‌اکنون اولین گام‌ها را به سمت این چشم‌انداز مثبت از آینده‌ی مدیریت پروژه بردارید.

 

درباره‌ی نگارندگان

آنتونیو نیتو رودریگز (Antonio Nieto-Rodriguez) نویسنده‌ی کتاب راهنمای مدیریت پروژه هاروارد بیزینس ریویو (Harvard Business Review) ، مقاله‌ی زمان اقتصاد پروژه رسیده است HBR (The Project Economy Has Arrived) و پنج کتاب دیگر است. تحقیقات و تاثیرات جهانی آثار او بر مدیریت مدرن توسط تینکرز۵۰ (Thinkers50) به رسمیت شناخته شده‌اند. آنتونیو پیش‌رو در آموزش و مشاوره‌ی هنر و علم پیاده‌سازی راهبردها و مدیریت مدرن پروژه‌ها به مدیران اجرایی، استاد مدعو در هفت مدرسه‌ی تجاری پیش‌رو است. او بنیان‌گذار پراجکتس‌اَندکو (Projects&Co) و مؤسّسه‌ی پیاده‌سازی راهبردها (Strategy Implementation Institute) است. می‌توانید آنتونیو را از طریق تارنمای او، خبرنامه‌ی لینکدین او با عنوان پروژه‌ها را با موفقیت رهبری کنید (Lead Projects Successfully) و دوره‌ی آنلاین او بازاختراع مدیریت پروژه برای مدیران غیر پروژه‌ای (Project Management Reinvented for Non–Project Managers) دنبال نمایید.

دکتر ریکاردو ویانا وارگاس (Ricardo Viana Vargas)، بنیان‌گذار و مدیر عامل ماکروسُلوشنز (Macrosolutions)، یک شرکت مشاوره‌ی بین‌المللی در حوزه‌ی انرژی، زیرساخت، فناوری اطلاعات، نفت و امور مالی است. او بیش از ۲۰ میلیارد دلار پروژه‌های بین‌المللی را در 25 سال گذشته مدیریت کرده است. ریکاردو، برایت‌لاین اینشیتیو (Brightline Initiative) را از سال ۲۰۱۶تا ۲۰۲۰ایجاد و رهبری کرد و مدیر زیرساخت‌‌ها و تیم مدیریت پروژه‌ها در سازمان ملل متحد بود و بیش از 1000 پروژه بشردوستانه و توسعه‌ای را رهبری کرد. او ۱۶ کتاب در این زمینه نوشته‌است و میزبان «پادکست ۵ دقیقه‌ای» است که تا کنون به آمار ۱۲ میلیون بازدید رسیده‌است.

منتشر شده در وب‌سایت Harvard Business Review
برگردان توسط حامد معین‌فر
در شرکت مهندسین فناور پندار آریا – پنداریا

صنعت مرکز داده در ایران چه جایگاهی در تناسب با روندهای جهانی در سال ۲۰۲۳ خواهد داشت؟

عنوان اصلی مقاله: Where Will the Iranian Data Center Industry Stand Relative to 2023 Global Trends?
تاریخ انتشار و نویسنده: By Hamed Moinfar – Jan. 24, 2023
وب‌سایت منتشر کننده: LinkedIn
 لینک اصلی مقاله

تصویر تولیدشده در دال.ای ۲ (Dall.E 2) توسط اُپن‌اِی‌آی (OpenAI)

 

پس از بازنشر مقاله‌ای از ریچ میلر (Rich Miller) با عنوان «هشت روندی که صنعت مرکز داده را در سال ۲۰۲۳ شکل خواهند داد» توجه ما به جایگاه عجیب صنعت مرکز داده در ایران در تناسب با روندهای پیش‌بینی‌شده در جهان جلب شد. مقاله حاضر دیدگاه و نظرات نگارنده در خصوص جایگاه صنعت مرکز داده در ایران در تناسب با آن روندهای جهانی می‌باشد.

صرفاً برای درک بهتر فضای بحث، در اینجا عناوین هشت روند مشخص‌شده در مقاله‌ی اصلی مجدداً یادآوری می‌شوند:

  • عرضه و تقاضا با محدودیت و تأخیر روبرو می‌شوند
  • ابزارهای هوش مصنوعی مولّد، به عنوان تغییردهنده‌ی بازی ظاهر می‌شوند
  • صنعت مرکز داده با مشکلات خود در حوزه‌ی روابط عمومی روبرو می‌شود
  • حرکت به سوی طراحی بدون آب، هر کجا که امکانش وجود داشته باشد
  • برای اَبَرمقیاس‌های گرسنه، امسال سالی برای هضم است
  • رونق در بازارهای ثانویه از ابر تا لبه ادامه خواهد یافت
  • مراکز داده‌ی بیشتری از «تولید برق در محل» استقبال می‌کنند
  • بازاندیشی در ریزش مشتریان: یک تهدید به یک فرصت تبدیل می‌شود

توصیه می‌کنم مقاله‌ی اصلی را در دیتاسنتر فرانتیر (Data Center Frontier) یا ترجمه‌ی آن را در پنداریا (Pendaria) مطالعه بفرمایید. پس از اندکی تحقیق و جمع‌آوری افکارم، اکنون خوشحال هستم که نظرات خود را در خصوص این موضوع و این که صنعت مرکز داده در ایران چگونه با روندهای فوق انطباق خواهد داشت، به اشتراک بگذارم؛

۱- عرضه و تقاضا با محدودیت و تأخیر روبرو می‌شوند

ایران نیز محدودیت‌ها و تأخیرهای در سمت عرضه و تقاضا را تجربه خواهد کرد، اما احتمالاً نه به دلایلی که در مقاله‌ی اصلی ذکر شده‌اند، بلکه به دلیل سایر عوامل سیاسی و اقتصادی آشکار.

این یک مانع جدید برای صنعت فناوری اطلاعات در ایران نیست، اما با کاهش بیش از پیش سرمایه‌گذاری‌های جدید و افزایش هزینه‌ها در سمت عرضه، فشار بر این صنعت و بر زیرساخت‌های فعلی مطمئناً افزایش خواهد یافت.

۲- ابزارهای هوش مصنوعی مولّد، به عنوان تغییردهنده‌ی بازی ظاهر می‌شوند

ایران در حال حاضر از فضای هوش مصنوعی بسیار دور است و بنابراین مراکز داده‌ی ایرانی بار کاری عمده‌ای که مرتبط با هوش مصنوعی باشد تجربه نخواهند کرد، چرا که هیچ مرکز داده‌ای که میزبان زیرساخت‌هایی از این دست و با توان محاسباتی مورد نیاز باشد، ایجاد نشده‌است. لذا نمی‌توان رشدی در سرمایه‌گذاری که تنها با همین هدف برنامه‌ریزی و محقق شده‌باشد، مشاهده نمود.

اگر بخواهم فقط یک حدس بزنم، احتمالاً استخراج رمزارزها همچنان در سال ۲۰۲۳ برای ایران یک عامل بسیار بزرگتر از روندهای جدیدتر مانند هوش مصنوعی (AI) و یادگیری ماشینی (ML) در تعیین شرایط سرمایه‌گذاری و توسعه‌ی زیرساخت‌ها خواهد بود.

۳- صنعت مرکز داده با مشکلات خود در حوزه‌ی روابط عمومی روبرو می‌شود

روابط عمومی مراکز داده و همه‌ی جنجال‌های رایج پیرامون آن‌ها، در ایران به اندازه‌ی سایر نقاط جهان مشکل‌ساز نخواهند بود. این به این دلیل است که هزینه‌های انرژی در ایران بسیار کمتر از هزینه‌های بین‌المللی بوده و نمی‌تواند در اولویت ذهنی جامعه قرار بگیرد. همچنین، هیچ مبنای محکم قانونی یا مقرراتی وجود ندارد که لزوم به رعایت پارامترهای منجر به پایداری محیطی (Environmental Sustainability) احساس شود.

متأسفانه، عموم مردم نیز درگیر مسائل بسیار اساسی‌تر دیگری در زندگی روزمره خود هستند و توجه به مسائل زیست‌محیطی در اولویت‌های آنها نیست.

۴- حرکت به سوی طراحی بدون آب، هر کجا که امکانش وجود داشته باشد

در موضوع حرکت به سوی طرح‌های غیرمبتنی بر مصرف آب، ایران چندین سال است که با خشکسالی شدید مواجه بوده و به همین دلیل خوشبختانه هم‌اکنون نیز از این نقطه‌ی عطف عبور کرده‌است. همانطور که می‌دانید اکثر تأسیسات خنک‌کننده در مراکز داده در ایران از نوع چیلرهای هواخنک هستند و از سامانه‌های آب سرد مدار بسته که مجهز به فناوری‌های خنک‌سازی آزاد سمت آب (Water-side free cooling) هستند، استفاده می‌کنند.

اگر بخواهیم به ارتقای وضعیت کنونی بیندیشیم، باید تأکید خود را بیشتر بر انتخاب مناسب مکان‌های سردسیرتر در کشور برای احداث مراکز داده و استفاده از فناوری‌های خنک‌سازی آزاد سمت هوا (Air-side free cooling) در آن مکان‌ها قرار دهیم.

۵- برای اَبَرمقیاس‌های گرسنه، امسال سالی برای هضم است

در حال حاضر هیچ مرکز داده‌ی اَبَرمقیاسی در ایران وجود ندارد و حتی مراکز داده با تراکم‌های متوسط نیز ​​متعلق به شرکت‌ها و سازمان‌ها بوده و در اختیار ارائه‌دهندگان فضاهای هم‌مکانی یا خدمات ابری قرار ندارند.

با بیان این مطلب، باید در نظر داشت که بر خلاف تصوّر عمومی و حتی بر خلاف جهت کاهشی سرمایه‌گذاری در زیرساخت‌های مرکز داده در سال‌های اخیر، در حال حاضر اکثر فعالیت‌های روزمره در ایران به خدمات مبتنی بر اینترنت وابسته هستند و جای تعجّب نخواهد داشت اگر در آینده‌ای نزدیک شاهد بروز کاستی‌ها و تحمّل افت کیفیت در ارائه‌ی این خدمات باشیم.

۶- رونق در بازارهای ثانویه از ابر تا لبه ادامه خواهد یافت

با وجود تلاش‌های صورت‌گرفته، صنعت مرکز داده در ایران هنوز به یک سلسله مراتب بالغ و سالم متشکل از زیرساخت‌های ملی، منطقه‌ای، محلّی و در لبه متصل نشده‌است. این در کنار آنچه قبلاً مورد بحث قرار گرفت، هیچ چشم‌انداز روشنی از وجود ظرفیت قابل اتکاء در بازارهای ثانویه نمایش نمی‌دهد.

۷- مراکز داده‌ی بیشتری از «تولید برق در محل» استقبال می‌کنند

جالب اینجاست که اگرچه به ارزان‌بودن انرژی در ایران اشاره کردیم، اما به دلیل سرمایه‌گذاری ناکافی در شبکه‌ی سراسری برق در سال‌های اخیر، گزینه‌ی تولید برق مورد نیاز در محل برای بسیاری از صنایع از جمله مراکز داده رایج شده‌است. همچنین، شرکت توزیع برق متعلّق به دولت نیز خود بر روی تولید برق در محل تاکید دارد و حتی در بسیاری از شرایط پیشنهاد بازخرید ظرفیت اضافی را می‌دهد.

اما نباید فراموش کرد که این رویکرد ممکن است در درون خود مشکلات دیگری را به همراه داشته باشد، مانند کمبود بنزین و گاز طبیعی در فصول سرد که ممکن است منجر به خاموشی‌های برنامه‌ریزی‌نشده شود.

۸- بازاندیشی در ریزش مشتریان: یک تهدید به یک فرصت تبدیل می‌شود

در ایران همواره و حتی بیشتر از آن چیزی که هر کسی فکرش را بکند، همیشه از ظرفیت‌های فضای خالی در مراکز داده استقبال می‌شود. همانطور که قبلاً نیز گفته شد، ایران در حال تجربه‌ی یک بازار با تقاضای بالا در صنعت مرکز داده است که اتفاقاً سرمایه‌گذاری کمی در آن انجام شده‌است.

کاربران بیش از هر زمان دیگری به فناوری اطلاعات متّکی شده‌اند و حتی در شرایط سخت سیاسی فعلی نیز تقاضا همچنان در حال افزایش است. به همین نسبت، بهره‌برداران مراکز داده و ارائه‌دهندگان خدمات مبتنی بر اینترنت نیز تحت فشار قرار دارند. همه‌ی ما حداقل یک تماس را در تجربه‌ی خود داشته‌ایم که یک مدیر فناوری اطلاعات در پشت خط از شما سوال می‌پرسد که آیا ظرفیت خالی در هر مرکز داده‌ای برای اجاره توسط شرکت آنها سراغ دارید.

این تقاضا می‌تواند از دَه‌ها تا صدها رَک متغیر باشد، اما همواره پاسخ یکسان است: متأسفانه خیر!

منتشر شده در  وب‌سایت LinkedIn
برگردان توسط حامد معین‌فر
در شرکت مهندسین فناور پندار آریا – پنداریا

هشت روندی که صنعت مرکز داده را در سال ۲۰۲۳ شکل خواهند داد «قسمت دوم»

عنوان اصلی مقاله: The Eight Trends That Will Shape the Data Center Industry in 2023
تاریخ انتشار و نویسنده: By Rich Miller – Jan. 5, 2023
وب‌سایت منتشر کننده: Data Center Frontier
 لینک اصلی مقاله

چه روندهایی در پیشِ روی صنعت مرکز داده در سال ۲۰۲۳ می‌باشند؟ سال جدید، سالی است که جریان‌های متضاد، فعالیت‌های تجاری در این بخش را در برابر یکدیگر هم‌زمان محدود و تقویت می‌کنند. ما در اینجا روندهایی که معتقد هستیم بیشترین اهمیت را خواهند داشت، شرح می‌دهیم.

«قسمت دوم»
مطالعه‌ی قسمت اول این مقاله

 

۴. حرکت به سوی طراحی بدون آب، هر کجا که امکانش وجود داشته باشد

یکی از تنش‌های اصلی در توسعه‌ی مراکز داده، مقدار زیاد آبی است که برای خنک‌کردن تعدادی از آنها استفاده می‌شود. گرمای شدید و خشک‌سالی‌های اخیر سطح معیار توقّعات را از سکّوهای محاسبات ابری با رشد بالا و توسعه‌دهندگان مراکز داده بالا برده‌اند.

آدام سِلیپسکی (Adam Selipsky) مدیرعامل خدمات وب آمازون (AWS) می‌گوید: «پیش‌بینی می‌شود که طی چند سال آینده نیمی از جمعیت جهان در مناطق با تنش آبی زندگی کنند، بنابراین برای اطمینان از دسترسی تمام مردم به آب سالم، همه‌ی ما باید راه‌های جدیدی را برای کمک به حفظ و استفاده‌ی مجدد از این منبع ارزشمند ابداع کنیم.»

در بسیاری از مناطق، مراکز داده در حال حاضر از چیلرهای هواخنک استفاده می‌کنند که آب را در یک مدار بسته به گردش در می‌آورند و مصرف آب را به شدت کاهش می‌دهند. اما در مناطقی دیگر، مراکز داده همچنان بر سامانه‌های خنک‌کننده‌ی تبخیری متّکی هستند که هرچند بسیار کارآمدند، اما به آب زیادی برای کارکرد خود نیاز دارند.

اکنون سکّوهای ابری بزرگ قول داده‌اند که تراز آبی در مراکز داده‌ی خود را مثبت کنند و شروع به افشای اطلاعات بیشتر در مورد مصرف آب خود کرده‌اند. هرچند این یک پیشرفت است، اما تنها پاسخی است به فشار افکار عمومی و شکایت‌های حقوقی که به دنبال دریافت اطلاعات مربوط به تأثیرات آبی مراکز داده در جوامع هستند. گوگل پس از سال‌ها اصرار بر این ادعا که اطلاعات میزان مصرف آب مراکزش در برخی بازارها یک راز تجاری است، اخیراً داده‌های مربوط به مصرف آب تأسیسات خود را به اشتراک گذاشته است که نشان می‌دهد در ناوگان مراکز داده آمازون در سال ۲۰۲۱، به میزان ۴٫۳ میلیارد گالن (۱۶٫۳ میلیون متر مکعّب) آب استفاده شده‌است که به طور متوسط برای هر مرکز داده ​​روزانه ۴۵۰٬۰۰۰ گالن (۱٬۷۰۰متر مکعّب) آب محاسبه می‌شود.

این عدد بسیار بزرگی است و گوگل به دنبال آن بود تا این ارقام را در متن فعالیت‌های تجاری ناشی از ارائه‌ی خدمات خود قرار دهد، با تاکید بر این نکته که این ارقام معادل حجم آبی است که برای ۲۹ زمین گلف مصرف می‌شود (در مقایسه: بیش از ۱۱٬۰۰۰ زمین گلف در ایالات متحده وجود دارند).

داده‌های منتشرشده توسط شرکت گوگل همچنین نشان داد که چگونه میزان مصرف آب می‌توان در تناسب با آب‌‌وهوای هر منطقه و فناوری خنک‌کننده مورد استفاده، متفاوت باشد. پردیس ابری گوگل در آیووا (Iowa) در سال ۲۰۲۱ بیش از ۱ میلیارد گالن (۳٫۸ میلیون متر مکعّب) آب مصرف کرد، در حالی که یک پردیس کوچک‌تر در آتلانتا (Atlanta) تنها تأثیر خالصی معادل ۱۳ میلیون گالن (۴۹٬۵۰۰ متر مکعّب) آب در همان سال داشت.

اورس هولزل (Urs Holzle)، معاون ارشد زیرساخت‌های فنّی در گوگل، در یک پست وبلاگ می‌گوید: «بهترین رویکرد در هر مکان به عوامل محلّی آنجا بستگی دارد و هیچ راه‌حل واحدی برای تمام شرایط وجود ندارد. در بسیاری از مکان‌ها، آب کارآمدترین ابزار خنک‌کننده است. خنک‌کننده‌ی آب چنانچه به طور مسؤولانه استفاده شود، می‌تواند نقش مهمی در کاهش انتشار گازهای گلخانه‌ای و کاهش تغییرات آب‌وهوایی ایفا کند. مراکز داده‌ی مجهز به سامانه‌های خنک‌کننده‌ی آبی حدود ۱۰٪ انرژی کمتری مصرف می‌کنند و در نتیجه تقریبا ۱۰٪ سطح کمتری از کربن نسبت به بسیاری از مراکز داده‌ی از نوع هوا خنک منتشر می‌کنند. در سال 2021، خنک‌کننده‌ی آب به ما کمک کرد تا ردپای کربنی مرتبط با مصرف انرژی در مراکز داده‌ی متعلق به خود را تقریباً معادل ۳۰۰٬۰۰۰ تُن دی‌اکسید کربن (CO2) کاهش دهیم.»

بله، شاید قضاوت در خصوص مصرف آب یک موضوع پیچیده باشد، اما از آنجایی که مناطق بیشتری با خشک‌سالی و کمبود آب مواجه هستند (مانند حوضه‌ی آب‌ریز رودخانه‌ی کلرادو (Colorado Basin))، مراکز داده با فشار فزاینده‌ای برای کاهش تأثیر آبی خود مواجه خواهند شد. این بخش از صنعت توانایی اثبات‌شده‌ای برای حفظ منابع از طریق به‌کارگیری نوآوری و ایجاد نظم در عملیات، از خود نشان داده‌است، چنانچه در جریان موفقیت خیره‌کننده‌ی صنعت مراکز داده در افزایش بهره‌وری انرژی مشاهده شد، که با وجود یک دهه رشد تصاعدی در توان محاسباتی مراکز داده بین سال‌های ۲۰۱۰ تا ۲۰۲۰، مصرف برق این صنعت تنها ۴ درصد افزایش یافت و ۶۰ میلیارد دلار صرفه‌جویی به همراه داشت.

انقلاب بهره‌وری انرژی پاسخی به فشار عمومی و ترس از مقررات بود. انتظار می‌رود موج مشابهی از نوآوری در پرداختن به صرفه‌جویی در مصرف آب در سال‌های آینده، از سال ۲۰۲۳ آغاز شود.

۵. برای اَبَرمقیاس‌های گرسنه، امسال سالی برای هضم است

هر کسی که فعالیت مراکز داده در سال گذشته را دنبال کرده‌باشد، نباید از اینکه بهره‌برداران اَبَرمقیاس ممکن است فضای کمتری را در سال ۲۰۲۳ اجاره کنند تعجب نماید. این شرکت‌ها در نیمه‌ی اول سال ۲۰۲۲ مقادیر تاریخی ظرفیت مرکز داده در اختیار گرفتند تا در بحبوحه‌ی گسترش نگرانی‌ها مبنی بر کُندشدن تحویل ظرفیت‌های جدید در آینده با توجه به اختلالات زنجیره‌ی تأمین، توسعه‌ی زیرساخت‌های خود را سرعت بخشند.

بسیاری از این معاملات بزرگ نشان‌دهنده‌ی پیش‌اجاره‌هایی بودند که در آنها مشتریان بزرگ اقدام به خرید تمام یک ساختمان در حالی که همچنان در مرحله‌ی طراحی و ساخت بود، می‌کردند. از آنجایی که شرکت‌های اَبَرمقیاس برای قطعی‌کردن ظرفیت موجود در اختیار خود با یکدیگر در حال مبارزه بودند، آنها به وضوح در حال پیش‌خرید نیاز آتی خود نیز بودند. اکنون این امر اجتناب‌ناپذیر است که در برخی مواقع بازار اجاره کُند شود تا این شرکت‌ها فرصت هضم ظرفیتی را که قبلاً خریداری کرده‌اند، پیدا نمایند.

خطوط کلی نتایج حاصل از این رخداد را می‌توان در تصمیم شرکت مِتا (Meta) برای توقف ساخت تعدادی از پروژه‌های مرکز داده‌ی خود مشاهده کرد تا بتواند تأسیسات جدید خود را با یک تغییر معلّق در طراحی که بر هوش مصنوعی (AI) متمرکز است، «بازبینی» نماید. گوگل نیز برنامه‌های توسعه‌ای خود را تعدیل نموده و طبق گزارش‌ها پروژه‌ی مرکز داده‌ی خود در بازار مینیاپولیس (Minneapolis) را به حال خود رها کرده‌است.

همچنین تغییراتی در توئیتر (Tweeter) که تا همین اخیراً در سال ۲۰۲۱ یک مصرف‌کننده‌ی بزرگ برای بازار عمده‌فروشی فضاهای مرکز داده بود، رخ داده‌است. مدیر عامل جدید آن ایلان ماسک (Elon Musk) فعلاً در وضعیت کاهش هزینه‌ها قرار دارد و بنا به گزارش‌ها اخیراً یکی از مراکز داده‌ی این شرکت را که در بازار ساکرامنتو (Sacramento) قرار دارد، تعطیل کرده‌است.

 لیگت (Liggett) می‌گوید: «ما شاهد عقب‌نشینی جزئی در سرعت تقاضای این کاربران بزرگ هستیم. این می‌تواند منجر به بروز برخی نوسانات در بازار شود و می‌تواند به این معنی باشد که ممکن است تا چند ماه رشد قابل توجهی در بازار مشاهده نشود. با توجه به تقاضای قابل توجهی که در سال ۲۰۲۲ شاهد بودیم، معتقدیم این کاهش سرعت موقتی خواهد بود.»

بازار اَبَرمقیاس‌ها قبلاً نیز در سال ۲۰۱۹ پس از ثبت یک رکورد در بازار اجاره در سال ۲۰۱۸، یک چرخه‌ی هضم را طی کرد. اما این تنها یک وقفه‌ی موقتی بود، چنانچه مشاهده شد که همین صنعت در سال‌های ۲۰۲۰ و ۲۰۲۱ به وضعیت پررونق اجاره بازگشت.

۶. رونق در بازارهای ثانویه از ابر تا لبه ادامه خواهد یافت

امسال ما تاکید خود را بر رشد مراکز داده در بازارهای ثانویه دو برابر می‌کنیم، روندی که با ظهور کمبود برق در بازارهای اولیه شتاب بیشتری گرفته‌است. این شامل ظهور بازارهای فرعی بیشتری در اطراف شاه‌راه‌های مراکز داده‌ی موجود، و همچنین پروژه‌های عظیم در مناطق جدیدی که برق و زمین کافی برای پشتیبانی از نسل جدید پردیس‌های عظیم (MegaCampuses) در اختیار دارند، می‌شود.

طبق معمول، ویرجینیای شمالی بارزترین نمونه از این روند خواهد بود. شهرهای گِینسویل (Gainesville) و کاتارپین (Catharpin) در شهرستان پرنس ویلیام کانون تمرکز بیش از 20 میلیون فوت مربع (۱٫۹ میلیون متر مربع) توسعه‌ی مرکز داده توسط کامپس دیتاسنترز (Compass Data Centers)، کیوتی‌اس دیتاسنترز (QTS Data Centers)، ان‌تی‌تی گلوبال دیتاسنترز آمریکا (NTT Global Data Centers Amerika) و کورِسکیل دیتاسنترز (Corscale Data Centers) هستند.

در سراسر منطقه‌ی پوتاماک (Potomac)، اَلایند دیتاسنترز (Aligned Data Centers) قصد دارد حداقل 3.3 میلیون فوت مربع (۳۰۷ هزار متر مربع) فضای مرکز داده را در آدامزتاون ایالت مریلند (Adamstown MD) در شهرستان فرِدِریک (Frederick County) بسازد، و این تنها اولین مشتری اعلام‌شده‌ی اَبَرپردیس کوانتوم لوپ‌هول (Quantum Loophole) می‌باشد.

روند مشابهی در حومه‌ی شیکاگو مشاهده می شود، جایی که مزارع بزرگ سرور در دی‌کالب (DeKalb)، ماونت پراسپکت (Mount Prospect)، نورت‌لیک (Northlake) و ایتاسکا (Itasca) در حال ساخت هستند.

اِرنست پوپِسکو (Ernest Popescu)، رئیس بخش جهانی انتخاب محل‌های ساخت در آیرون ماونتن دیتاسنترز (Iron Mountain Data Centers) می‌نویسد: «فرصت‌ها فراوان است، اما اکنون بیشتر دنبال رشد در بازارهای سطح دو هستیم. در ایالات متحده، ما شاهد توسعه‌ی بیشتر مراکز داده در شهرهایی مانند دِنور (Denver)، پیتسبورگ (Pittsburgh)، دیترویت (Detroit)، سالت لیک سیتی (Salt Lake City) و تامپا (Tampa) هستیم که همگی بازارهایی هستند که با عنوان ’شهرهای فوتبال‌دوست‘ شناخته می‌شوند.»

ریا ویلیامز (Rhea Williams)، انتخاب‌کننده‌ی اصلی محل‌های ساخت برای اوراکل کلاود (Oracle Cloud)، در میزگرد اخیر دیتاسنتر فرانتیر (DCF) گفت: «محدودیت‌های حاضر در مناطق اصلی به افزایش تقاضا در بازارهای ’سطح دوم‘ ادامه خواهد داد. استفاده‌ی بیشتر از تجهیزات شخصی و خانگی که باعث افزایش مصرف و تولید داده‌های بیشتر می‌شود، نیاز به افزایش سطح پوشش را از نقطه‌نظر تأخیر (Latency) افزایش خواهد داد. چه آن را سطح دوم بنامید یا لبه، همه چیز اکنون به رشد اشاره دارد.»

۷. مراکز داده‌ی بیشتری از «تولید برق در محل» استقبال می‌کنند

نیرو حوزه‌ی دیگری است که در آن شاهد پژواک پیش‌بینی‌های سال گذشته‌ی خود هستیم، جایی که دیتاسنتر فرانتیر (DCF) پیش‌بینی کرد که داده‌ها و انرژی ارتباطات عمیق‌تری را با یکدیگر ایجاد خواهند کرد. صحّت این پیش‌بینی با قطعیت ثابت شده‌است، اما در پیش‌بینی امسال ما زاویه‌ی دید خود را محدودتر می‌کنیم. در سال ۲۰۲۳، شاهد پروژه‌های مرکز داده‌ی بیشتری خواهیم بود که در خود تولید انرژی در محل را نیز شامل می‌شوند تا امکان گسترش در بازارهای دارای محدودیت شبکه‌ی تأمین برق را فراهم شود.

نمونه‌ی اولیه‌ی این روند در ایرلند مشاهده می‌شود، جایی که مایکروسافت قصد دارد یک نیروگاه گازی عظیم ۱۷۰ مگاواتی به‌علاوه‌ی ۲۱ نیروگاه دیزلی کوچک‌تر احداث نماید. این تصمیم پس از آن اتخاذ شد که بهره‌بردار شبکه‌ی برق ایرلندی ایرگرید (EirGrid) به طور مؤثر سقف انشعابات برق را برای ساخت مراکز داده جدید در بازار دوبلین محدود کرد.

راهبردهای مشابهی می‌تواند در شهرستان لودون (Loudoun) در ویرجینیای شمالی ظاهر شود، جایی که سقف انشعابات جدید برق از شرکت دومینیون انرژی (Dominion Energy) به دلیل محدودیت‌ها در شبکه‌ی محلی انتقال برق با ظرفیت بالا، به شدت تا سال ۲۰۲۶ محدود خواهد شد.

در مقیاس کوچک‌تر، امسال شاهد ورود راه‌حل‌های اِدج سنترز (Edge Centers) به ​​بازار ایالات متحده خواهیم بود که تخصّص آن در راه‌اندازی مراکز داده‌ی لایه‌ی لبه با پشتیبانی از انرژی خورشیدی در بیرون از شبکه‌ی سراسری برق می‌باشد. این شرکت شبکه‌ای از این تأسیسات را در آسیا ساخته‌است که شامل سایت‌هایی در استرالیا، مالزی، ویتنام، تایلند، اندونزی و فیلیپین می‌شود.

به گفته‌ی کارشناسان وِرتیو (Vertiv)، ما احتمالاً شاهد تمرکز بیشتر بر روی استفاده از سلول‌های سوختی هیدروژنی برای تأمین انرژی پشتیبان و حتی اوّلیه نیز خواهیم بود.

وِرتیو در پیش‌بینی‌های خود برای سال ۲۰۲۳ می‌گوید: «این سلول‌های سوختی در ابتدا مانند یک مولّد عمل می‌کنند و تنها بار لحظه‌ای را پشتیبانی می‌کنند و در نهایت نوید عملکرد پایدار یا حتی مداوم را می‌دهند.»

هر دو شرکت مایکروسافت و اکوئینکس پروژه‌هایی برای آزمایش تولید انرژی مبتنی بر هیدروژن در شبکه‌ی عملیات برق خود دارند. می‌توان انتظار داشت که در سال ۲۰۲۳ شاهد تمرکز شتابان بر روی این فناوری باشیم.

۸. بازاندیشی در ریزش مشتریان: یک تهدید به یک فرصت تبدیل می‌شود

ارائه‌دهندگان فضاهای مرکز داده همواره مقوله‌ی ریزش مشتریان را به عنوان یک دشمن تلقی کرده‌اند. اما با ورود صنعت به دوره‌ای از محدودیت‌ها در ظرفیت قابل ارائه، نگرش‌ها نسبت به ریزش، که در آن مستاجران فضای مرکز داده را پس از پایان دوره‌ی اجاره‌ی خود خالی می‌کنند، در حال تغییر است.

هنگامی که یک مشتری مرکز داده را ترک می‌کند، ارائه‌دهندگان باید فضای خالی‌شده را که دیگر درآمدی ایجاد نمی‌کند پُر نمایند. در محیطی که ظرفیت جدید کمیاب است، فضای موجود ارزشمندتر می‌شود.

چارلز مایرز (Charles Meyers)، مدیرعامل اکوئینکس، در یک کنفرانس خبری اخیر درباره‌ی درآمدهای شرکت گفت: «ما حتّی می‌بینیم مشتریانی که قبل از این قصد داشتند از بهره‌برداری از فضاهای در اختیار خود انصراف دهند، اکنون برنامه‌ریزی خود را برعکس نموده‌اند. حصول اطمینان از در اختیار داشتن فضای پیشین، تحت همان شرایط قبلی یا نزدیک به آن شرایط، برای آنها یک تصمیم راهبردی است. ما به همین دلایل شاهد مطلوبیت بیشتر در مقوله‌ی ریزش مشتریان هستیم.»

تغییر در شرایط عرضه، پویایی طولانی‌مدت در قیمت‌گذاری فضاهای مرکز داده را نیز تغییر داده‌است. شرکت دیجیتال ریالیتیز پاور (Digital Realty’s Power) که می‌گوید نرخ فضاهای هم‌مکان ۱۰٪ تا ۱۵٪ افزایش یافته‌است و خاطرنشان می‌کند که ارائه‌دهندگانی که فضاهای خالی در اختیار دارند به ویژه در اَشبورن (Ashburn) در موقعیت چانه‌زنی مناسبی قرار گرفته‌اند، عنوان می‌کند: «ما همچنان شاهد بهبود قدرت قیمت‌گذاری در سرتاسر سکّوهای خود هستیم.»

این شرکت می‌گوید: «اما از هم‌اکنون تا (۲۰۲۶)، عرضه‌ی کمتری در بزرگترین بازار پرتقاضا وجود خواهد داشت. این بدان معناست که آونگ قدرت قیمت‌گذاری در حال برگشت به سمت و به نفع ما است.»

ریچ میلر (Rich Miller)

من در مورد مکان‌هایی می‌نویسم که اینترنت در آن محل‌ها زندگی می‌کند و داستان مراکز داده و افرادی که آنها را می‌سازند بیان می‌کنم. من دیتاسنتر نالِج (Data Center Knowledge) را که سایت خبری پیش‌رو در صنعت مرکز داده‌است، تأسیس کرده‌ام. من اکنون در حال پایش آینده‌ی محاسبات ابری در دیتاسنتر فرانتیر (Data Center Frontier) هستم.

منتشر شده در  وب‌سایت Data Center Frontier
برگردان توسط حامد معین‌فر
در شرکت مهندسین فناور پندار آریا – پنداریا

هشت روندی که صنعت مرکز داده را در سال ۲۰۲۳ شکل خواهند داد «قسمت اول»

عنوان اصلی مقاله: The Eight Trends That Will Shape the Data Center Industry in 2023
تاریخ انتشار و نویسنده: By Rich Miller – Jan. 5, 2023
وب‌سایت منتشر کننده: Data Center Frontier
 لینک اصلی مقاله

چه روندهایی در پیشِ روی صنعت مرکز داده در سال ۲۰۲۳ می‌باشند؟ سال جدید، سالی است که جریان‌های متضاد، فعالیت‌های تجاری در این بخش را در برابر یکدیگر هم‌زمان محدود و تقویت می‌کنند. ما در اینجا روندهایی که معتقد هستیم بیشترین اهمیت را خواهند داشت، شرح می‌دهیم.

«قسمت اول»
مطالعه‌ی قسمت دوم این مقاله

 

ردیفی از سخت‌افزارهای هوش مصنوعی با تراکم بالا در مرکز داده‌ی کولاوُر (Colovore) در سانتا کلارا (Santa Clara)، کالیفرنیا (California).

چه روندهایی در پیشِ روی صنعت مرکز داده در سال ۲۰۲۳می‌باشد؟ ما در دیتاسنتر فرانتیر (Data Center Frontier) چشمان خود را به افق دوخته‌ایم و همواره روندهای مهم را دنبال می‌کنیم. ما هر سال هشت موضوعی را که معتقدیم کسب‌وکار مراکز داده را در آن سال شکل می‌دهند شناسایی می‌کنیم.

بیش از هر سال دیگری که در خاطر داریم، احتمالاً در سال ۲۰۲۳شاهد بیشترین جریان‌های متضاد مقابل یکدیگر هستیم که می‌توانند فعالیت‌های تجاری در این بخش را محدود یا تقویت نمایند. این موضوع، زمینه را برای تحرکات پر جنب‌وجوش در صنعتی که با هزینه‌های بالاتر، اقتصاد در حال رکود و چشم‌اندازی پر چالش برای ارائه‌ی ظرفیت‌های جدید مرکز داده دست‌وپنجه نرم می‌کند، فراهم می‌سازد.

ما در آینده در رابطه با بسیاری از این روندها با جزئیات بیشتری خواهیم نوشت، اما این فهرست یک نما در سطح بالا از موضوعاتی ارائه می‌دهد که معتقدیم در سال ۲۰۲۳بیشترین تاثیر را خواهند داشت.

۱. عرضه و تقاضا با محدودیت و تأخیر روبرو می‌شوند

پس از چندین سال رشد پرقدرت، اکنون بخش زیرساخت دیجیتال برای ساخت مراکز داده‌ی جدید با همان سرعت اینترنت با محیطی چالش‌برانگیز مواجه است. در نتیجه، یافتن فضاهای موجود مرکز داده دشوارتر شده و ممکن است به خصوص در نیمه‌ی دوم سال 2023 هزینه‌ی بیشتری به همراه داشته باشد.

در سمت عرضه، بازارهای کلیدی با محدودیت‌های تأمین نیروی برق مواجه هستند و ممکن است روند زمانی پروژه‌های جدید به دلیل مشکلات زنجیره‌ی تأمین و مقاومت جامعه در برابر آنها، کُند شود. در سمت تقاضا، احتمالاً فروشندگان تجهیزات سازمانی فناوری اطلاعات با محدودیت‌های بودجه مواجه خواهند شد، در حالی که بخش اَبَرمقیاس نیز باید حجم عظیمی از ظرفیت اجاره‌شده در سال ۲۰۲۲را جذب نماید.

دیوید لیگِت (David Liggett) از دیتاسنتر هاوک (datacenterHawk) طی یک بررسی اجمالی اخیر از بازار می‌گوید: «ما در یک زمان واقعاً منحصر به فرد قرار گرفته‌ایم. راه‌اندازی و تحویل مراکز داده به طور فزاینده‌ای در سال‌های اخیر دشوار شده‌است. این موضوع به دلیل تعدادی از عوامل، از جمله نیاز به تأمین مقادیر بیشتر نیروی برق، رقابت توسعه‌دهندگان صنعتی با یکدیگر، و زنجیره‌ی تأمین غیر قابل اعتماد ایجاد شده‌است. این منجر به طولانی‌شدن زمان‌بندی توسعه و احتمالاً نرخ اجاره‌ی بالاتر می‌شود، امّا همچنان فرصتی را برای شرکت‌هایی ایجاد می‌کند که قادر هستند با سرعت بالاتر محصولات خود را در بازار عرضه نمایند.»

مدیران عامل دو ارائه‌دهنده‌ی بزرگ فضاهای مرکز داده وجود این چالش‌ها را تصدیق می‌کنند.

اندرو پاور (Andrew Power)، مدیرعامل دیجیتال ریالتی (Digital Realty) که می‌گوید شرکت او «بینایی ما را تیزتر خواهد کرد و سرمایه‌گذاری‌های جدید را برای آنهایی که دارای بالاترین شایستگی راهبردی هستند، در اولویت قرار خواهد داد» این‌گونه بیان می‌کند: «ما انتظار داریم جابه‌جایی و نوسانات بازارهای سرمایه، همراه با افزایش هزینه‌ها و کاهش دسترس‌پذیری نیروی برق در بازارهای متعدّد، توانایی ایجاد ظرفیت‌های جدید مرکز داده را با وجود پایایی تقاضای برای زیرساخت‌های مرکز داده، محدود نماید.»

چارلز مایرز (Charles Meyers)، مدیر عامل اکوئینکس (Equinix) می‌گوید: «ما همچنان به پایش دقیق شرایط کلان در بازار ادامه می‌دهیم و طرح‌های اجرایی خود را بر همین اساس تطبیق می‌دهیم، با این وجود پایه‌های کسب‌وکار ما همچنان بسیار قوی باقی هستند. وقتی من در بیرون از شرکت با مشتریان و با تیم‌های فروش صحبت می‌کنم، نگرانی شماره‌ی یک آنها این است که ظرفیت مورد نیازشان که در اختیار ما است تمام شود. آنچه من می‌شنوم این است که ’ما به ظرفیت بیشتری نیاز داریم، ما باید به سرمایه‌گذاری در کسب‌وکار خود ادامه دهیم.‘»

بخش مرکز داده از چرخه‌ی عمومی کسب‌وکار مصون نیست، اما تحوّلات گسترده‌ای پیش‌ران آن هستند که از ادامه‌ی سرمایه‌گذاری در مراکز داده در زمان جابجایی اقتصادی حمایت می‌کنند، همانطور که در رشد انفجاری در طول همه‌گیری کووید ۱۹ (COVID-19) نیز مشاهده شد. از آنجایی که خدمات ابری و هوش مصنوعی به بازسازی چشم‌انداز کسب‌وکار ادامه می‌دهند، فروشگاه‌های تجهیزات سازمانی فناوری اطلاعات نیز باید با تنش میان محدودیت‌های بودجه‌ای و مخاطرات رقابتی ناشی از عقب‌ماندن در عصر تحوّل دیجیتال مقابله کنند. عناوین خبری که اخیراً مشاهده می‌شوند این دغدغه‌ها را تسکین می‌دهند.

تام کرازیت (Tom Krazit) در موستلی کلودی (Mostly Cloudy) خاطرنشان می‌کند: « به نظر می‌رسد که فروپاشی حماسی هواپیمایی ساوت‌وِست (Southwest) در آخر هفته‌ی تعطیلات کریسمس، که فعالیت‌های آن را برای بیش از یک هفته مختل کرد، نتیجه‌ی سال‌ها به‌تعویق‌انداختن ارتقای سامانه‌های نرم‌افزاری داخل سازمانی باشد. این زنگ خطری برای تمام آن بخش‌های فناوری اطلاعات و مالی است که اکنون از تعطیلات بازگشته‌اند و می‌دانند آنها نیز این به‌روزرسانی‌ها را به تعویق انداخته‌اند.»

۲. ابزارهای هوش مصنوعی مولّد، به عنوان تغییردهنده‌ی بازی ظاهر می‌شوند

در طول سال ۲۰۲۲ پیشرفت‌های جذّابی در هوش مصنوعی حاصل شد، به ویژه برای برنامه‌های کاربردی هوش مصنوعی مولّد (Generative AI) که با توانایی‌های خود در ایجاد تصاویر، پاسخ‌دادن به سؤالات دقیق، نوشتن مقالات با موضوعات پیچیده و سرعت‌بخشیدن به برنامه‌نویسی نرم‌افزارها، تخیّلات عموم را تسخیر کردند.

ما شاهد ظهور برنامه‌های هوش مصنوعی خیره‌کننده‌ای مانند چَت‌جی‌پی‌تی (ChatGPT)، دال-ای (Dall-E)، لنزا اِی‌آی (Lensa AI) و گیت‌هاب کوپایلوت (GitHub Copilot) بودیم که به رایانه‌هایی که از الگوریتم‌های یادگیری ماشینی استفاده می‌کردند اجازه می‌دادند تولید محتوا کنند؛ از جمله متن، تصاویر، صدا، ویدئو و کُد. راه‌اندازی چَت‌جی‌پی‌تی در ۳۰نوامبر باعث ایجاد هیجانی شد که تنها در ۵ روز توانست یک میلیون کاربر را به خود جذب کند.

اَشو گارگ (Ashu Garg)، شریک عمومی فاوندیشن کاپیتال (Foundation Capital)، که تأثیر چَت‌جی‌پی‌تی را با راه‌اندازی مرورگر نِت‌اسکیپ (Netscape) مقایسه می‌کند‌، می‌گوید: «هوش مصنوعی پس از دهه‌ها سفر در امتداد یک منحنی نمایی، اکنون به لحظه‌ی ’دنیای جدید‘ خود رسیده‌است. هوش مصنوعی زودتر و ریشه‌ای‌تر از آنچه ما انتظار داریم تمام حوزه‌های نرم‌افزارهای سازمانی را از نو بازسازی خواهد کرد.»

همانطور که اغلب اشاره کرده‌ایم، شرکت‌های بیشتری به دنبال استفاده از هوش مصنوعی برای هوشمندترسازی دستگاه‌ها و خدمات خود هستند، و این روند احتمالاً با هیجان پیرامون چَت‌جی‌پی‌تی تسریع خواهد شد.

مَنوویر داس (Manuvir Das)، معاون ارشد محاسبات سازمانی در اِنویدیا (NVIDIA) می‌گوید: «هیجان‌های مربوط به هوش مصنوعی مولّد، در سال ۲۰۲۳ به واقعیت تبدیل می‌شوند. این موضوع به این دلیل است که پایه‌های هوش مصنوعی مولّد واقعی، اکنون با استفاده از نرم‌افزارهایی که قادر هستند مدل‌های زبانی بزرگ (Large Language Models (LLM)) و سامانه‌های توصیه‌کننده را به برنامه‌های کاربردی تولیدی‌ای تبدیل کنند که فراتر از تصاویر بوده و به طور هوشمندانه به سؤالات پاسخ می‌دهند، محتوا تولید می‌کنند و حتی جرقّه‌ی اکتشافات جدیدی را می‌زنند، تولید شده‌اند و استقرار یافته‌اند. این دوره‌ی خلّاقانه‌ی جدید باعث پیشرفت‌های عظیم در ارائه‌ی خدمات شخصی‌سازی‌شده به مشتریان می‌شود، مدل‌های کسب‌وکار جدید را هدایت می‌کند و راه را برای پیشرفت و عبور از موانع هموار می‌سازد.»

علاقه‌ی فزاینده به هوش مصنوعی مولّد منجر به انجام سرمایه‌گذاری‌های تازه می‌شود، هم‌زمان با آنکه کاربران نیز پتانسیل و مشکلات این فناوری را برطرف می‌کنند.

راب پاول (Rob Powell) از تله‌کام رَمبلینگز (Telecom Ramblings) می‌گوید: «درک عمومی از فناوری‌های نسل بعدی برای توجیه سرمایه‌گذاری در زیرساخت‌ها اهمیت زیادی دارد. شیفتگی به چَت‌جی‌پی‌تی تنها رو به افزایش است و بنابراین هوش مصنوعی را از یک محرّک در آینده به یک هدایت‌گر در حال حاضر ارتقاء می‌دهد، حتی در زمانی که صنعت در حال حرکت به سمت استفاده از سایر اَشکال هوش مصنوعی و یادگیری ماشینی (ML) به روش‌هایی با جلب توجه کمتر است.»

برای بخش مرکز داده، این به معنای تقاضای بیشتر برای سکّوهای تخصصی محاسبات سریع (یا محاسبات با عملکرد بالا) (HPC) است. در اینجا ارائه‌دهندگان بزرگ ابری بازیگران کلیدی خواهند بود، اما شرکت‌های پیش‌رو نیز ممکن است بخواهند از این ابزارها برای استخراج ارزش تجاری مجموعه داده‌های اختصاصی خود استفاده نمایند که ممکن است لزوماً قابل پیاده‌سازی در ابر نباشند.

این روند فرصت‌هایی را برای مراکز داده‌ی خدمات هم‌مکانی با تراکم بالا (مانند کسب‌وکار نوپای مراکز داده‌ی دی‌سی‌ایکس (DCX) در فونیکس (Phoenix)، مجموعه‌ی کولاوُر (Colovore) در سانتا کلارا (Santa Clara) و مجموعه‌ی اسکِیل‌ماتریکس (ScaleMatrix) در سن دیِگو (San Diego)) و پیشنهادهای بهینه‌سازی‌شده‌‌ای پیرامون پردازنده‌های جدید (مانند همکاری سیرااسکیل (CirraScale) با سِره‌براس (Cerebras)) و چارچوب‌های نرم‌افزاری هوش مصنوعی مولّد (مانند اِنی‌اسکیل (AnyScale)) ایجاد می‌کند. ارائه‌دهندگان بزرگ‌تر خدمات هم‌مکانی و عمده‌فروشان فضاهای مراکز داده ممکن است برنامه‌های ایجاد مناطق با تراکم بالا در تأسیسات خود را تسریع بخشند.

۳. صنعت مرکز داده با مشکلات خود در حوزه‌ی روابط عمومی روبرو می‌شود

یک روایت فزاینده‌ای در حال حاضر ایجاد شده‌است که می‌گوید مراکز داده همسایگان بدی هستند و منابع حیاتی جامعه از جمله آب و برق را می‌بلعند. همانطور که در پیش‌بینی‌های خود برای سال گذشته عنوان کردیم، مقاومت جامعه در برابر توسعه‌ی مراکز داده در برخی از مهم‌ترین بازارهای مرکز داده یک چالش رو به رشد است. در شهرستان پرنس ویلیام (Prince William) در ویرجینیا (Virginia)، تصویب توسعه‌ی یک مرکز داده‌ی عظیم به مهم‌ترین موضوع سیاسی تبدیل شد و باعث شد که سرپرستان طرح یک جلسه‌ی ۱۴ ساعته ترتیب دهند تا ۳۰۰ نفر از ساکنان اجازه پیدا کنند نظرات خود را به اشتراک بگذارند.

با انباشته‌شدن عناوین خبری منفی، مقاومت در برابر ساخت مراکز داده به بازارهای در حال رشدی که سابقه قبلی توسعه‌ی مراکز داده در آن بازارها وجود نداشت نیز سرایت پیدا کرد. در این موارد، ساکنان تنها بر مبنای گزارش رسانه‌ها در خصوص مناقشات در دیگر مناطق، به دنبال مقاومت و رد هر گونه پروژه‌ی زیرساخت ابری جدید هستند.

این می‌تواند به یک مشکل تجاری مهم برای سازندگان مراکز داده تبدیل شود، زیرا بازارهای اصلی با محدودیت‌هایی در دسترسی به زمین و شبکه‌ی برق مواجه هستند.

به عنوان مثال: هنگامی که مقامات برنامه‌ریزی در وارنتون (Warrenton)، ویرجینیا در ماه نوامبر برای بررسی یک درخواست ساخت مرکز داده‌ی خدمات وب آمازون (AWS) با یکدیگر ملاقات داشتند، ۵۸ نفر از ساکنان در مخالفت با این پروژه صحبت کردند، در حالی که تعدادی دیگر ساعت‌ها زیر باران منتظر فرصتی برای شنیده‌شدن نظرات خود بودند. تعدادی از سخنرانان به نگرانی‌هایی در خصوص آلودگی صوتی، به ویژه به پوشش رسانه‌ای ایجادشده پیرامون مراکز داده‌ی پر سر و صدا در چَندلر (Chandler)، آریزونا (Arizona) اشاره کردند. این کمیسیون در نهایت به توقف بررسی این درخواست رای داد تا اطلاعات بیشتری از AWS برای رسیدگی به نگرانی‌های ساکنان دریافت نماید.

وارنتون، شهری با حدود ۱۰٬۰۰۰ نفر ساکن در شهرستان فاوکوییر (Fauquier)، یک بازار بالقوه برای توسعه‌ی خوشه‌ای مراکز داده‌ی عظیم در ویرجینیای شمالی است. این نوع سایت‌ها احتمالاً نقش مهمی در آینده‌ی بازار مراکز داده ایفا خواهند کرد.

صنعت مرکز داده همواره ترجیح داده‌است تمرکز خود را بر روی پشت صحنه‌ی کار و توان خود در جلب حمایت مقامات محلی قرار دهد و در عین حال در هر جنجال عمومی پیرامون تأسیسات مرکز داده سکوت نسبی اختیار نماید. باید دید که آیا این راهبرد در آیند نیز قابل قبول خواهد بود، چرا که توسعه‌ی مراکز داده تبدیل به یک «سیب‌زمینی داغ» در سیاست شده‌است. احتمالاً انتخابات پیشِ رو در شهرستان پرنس ویلیام به ما نشان ‌می‌دهد که آیا سیاست‌مداران محلّی بهای حمایت از توسعه‌ی مراکز داده را خواهند پرداخت یا خیر.

یک چیز مسلّم است: صنعت مرکز داده نمی‌خواهد عناوین خبری و سوابق منفی‌اش در شهرستان پرنس ویلیام هدایت‌گر مسیر صنعت در آینده باشند. زیرساخت‌های دیجیتال برای اقتصاد جهانی به یک ضرورت تبدیل شده‌اند و مراکز داده قادر هستند عوامل نیرومندی برای ایجاد تغییرات مثبت در تغییرات آب‌وهوایی باشند. اما چنانچه قرار باشد کسی آنها را در همسایگی خود نپذیرد، این نتیجه در دسترس نخواهد بود.

 

«پایان قسمت اول»
مطالعه‌ی قسمت دوم این مقاله

منتشر شده در  وب‌سایت Data Center Frontier
برگردان توسط حامد معین‌فر
در شرکت مهندسین فناور پندار آریا – پنداریا

آیا شما نیز در پروژه‌های هوش مصنوعی خود مرتکب این اشتباهات مرگبار می‌شوید؟

عنوان اصلی مقاله: ?Are You Making These Deadly Mistakes With Your AI Projects
تاریخ انتشار و نویسنده: By Kathleen Walch – Aug 20, 2022
وب‌سایت منتشر کننده: Forbes
 لینک اصلی مقاله

از آنجا که در قلب هوش مصنوعی (AI) داده‌ها قرار گرفته‌اند، جای تعجب نیست که سامانه‌های هوش مصنوعی (AI) و یادگیری ماشینی (ML) برای «یادگیری»، نیازمند داده‌های با کیفیت و با مقدار کافی باشند. به طور کلّی، به حجم زیادی از داده‌های با کیفیت خوب، به‌ویژه برای رویکردهای «یادگیری با نظارت (Supervised learning)» نیاز است تا بتوان سامانه‌ی AI یا ML را به صورت صحیح آموزش داد. ممکن است مقدار دقیق داده‌ای که مورد نیاز است، بسته به الگوی هوش مصنوعی که پیاده‌سازی می‌کنید، الگوریتمی که استفاده می‌کنید و عوامل دیگری از جمله داده‌های داخلی در مقابل داده‌های بیرونی، متفاوت باشد. به عنوان مثال، شبکه‌های عصبی (Neural networks) به داده‌های زیادی برای آموزش‌یافتن نیاز دارند، در حالی که درخت‌های تصمیم (Decision trees) یا طبقه‌بندی‌کننده‌های بِیز (Bayesian classifiers) به داده‌های زیادی برای تولید نتایج با کیفیت بالا نیاز ندارند.

خُب، پس حالا ممکن است تصوّر کنید که هر چه حجم داده‌ها بیشتر بهتر، درست است؟ خیر، اشتباه فکر کرده‌اید. سازمان‌هایی با داده‌های بسیار زیاد، حتی در حدّ اِگزابایت، اکنون متوجه شده‌اند که بر خلاف انتظارشان حجم داده‌ی بیشتر راه‌حل مسأله‌ی آن‌ها نبوده است. در واقع، داده‌های بیشتر یعنی مشکلات بیشتر. هر چه قدر داده‌های بیشتری در اختیار داشته باشید، به همان میزان نیاز دارید تا داده‌های بیشتری را تمیز و آماده‌سازی کنید، داده‌های بیشتری را برچسب‌گذاری و مدیریت کنید، داده‌های بیشتری را ایمن‌سازی، محافظت و سوگیری‌زدایی کنید، و حتی موارد دیگر. به محض اینکه شما شروع به چند برابر کردن حجم داده‌ها نمایید، یک پروژه‌ی کوچک به سرعت تبدیل به پروژه‌ی بسیار بزرگ می‌شود. در واقع در بسیاری از اوقات، داده‌های زیاد پروژه‌ها را از بین می‌برند.

به وضوح، حلقه‌ی مفقوده از شناسایی یک مسأله‌ی تجاری تا جمع‌کردن داده‌ها برای حل آن مسأله، این است که تعیین کنید به کدام داده‌ها و واقعاً به چه مقدار از آنها نیاز دارید. شما به اندازه‌ی کافی داده نیاز دارید، امّا نه بیش از حدّ آن. چنانچه با برداشت از یک داستان کودکانه به آن «داده‌های دختر موطلایی (Goldilocks)» اطلاق می‌کنند: نه خیلی زیاد، نه خیلی کم، بلکه به اندازه. متأسفانه در اغلب موارد، سازمان‌ها بدون پرداختن به موضوع «درک اطلاعات»، وارد پروژه‌های هوش مصنوعی می‌شوند. پرسش‌هایی که لازم است سازمان‌ها به آنها پاسخ دهند عبارتند از اینکه داده‌ها کجا قرار دارند، چه مقدار از آنها را در اختیار دارند، در چه شرایطی هستند، چه ویژگی‌هایی از آن داده‌ها بیشترین اهمیت را دارند؛ همچنین موضوعاتی چون استفاده از داده‌های داخلی یا خارجی، چالش‌های دسترسی به داده‌ها، نیاز به تقویت داده‌های موجود، و سایر عوامل و سؤالات حیاتی. بدون پاسخ به این پرسش‌ها، پروژه‌های هوش مصنوعی می‌توانند به سرعت نابود شوند.

درک بهتر داده‌ها برای اینکه متوجه شوید به چه مقدار داده نیاز دارید، ابتدا باید درک کنید که داده‌ها چگونه و در کجای ساختار پروژه‌های هوش مصنوعی قرار می‌گیرند. یک روش بصری برای درک سطوح ارزش فزاینده‌ای که از داده‌ها به دست می‌آوریم، «هرم دانش» (DIKUW و یا به قولی دیگر DIKW) است که نشان می‌دهد چگونه بنیادی از داده‌ها، به ایجاد ارزش بیشتر در لایه‌های «اطلاعات»، «دانش»، «درک» و «خِرَد» کمک می‌کند.

هرم دانش DIKW (داده-اطلاعات-دانش-خِرَد) – ویکیپدیا      هرم دانش DIKUW (داده-اطلاعات-دانش-درک-خِرَد) – فوربس

با یک بنیاد محکم از داده‌ها، می‌توانید در لایه‌ی بعدی یعنی اطلاعات، بینش مضاعفی به دست آورید که به شما کمک می‌کند به سؤالات ابتدایی در مورد آن داده‌ها پاسخ دهید. زمانی که یک سری ارتباطات اوّلیه بین داده‌ها ایجاد نمودید تا بینش اطلاعاتی به دست آورید، آنگاه می‌توانید الگوهایی در آن اطلاعات بیابید که شما را قادر می‌سازد تا درک کنید که چگونه قطعات مختلف آن اطلاعات برای به دست‌آوردن بینش بیشتر به یکدیگر متصل شده‌اند. با بنا نهادن بر روی لایه‌ی دانش، سازمان‌ها قادر هستند ارزش حتی بیشتری از درک اینکه چرا آن الگوها اتفاق می‌افتند به دست آورند و درک درستی از الگوهای زیربنایی ارائه دهند. در نهایت، لایه‌ی خِرَد جایی است که می‌توانید با ارائه‌ی بینش در مورد علت و معلول تصمیم‌گیری‌های اطلاعاتی، بیشترین ارزش را از اطلاعات در آن کسب نمایید.

این آخرین موجی که از هوش مصنوعی به راه افتاده‌است، بیشتر بر روی لایه‌ی دانش متمرکز است، چرا که هدف یادگیری ماشینی ارائه‌ی بینش بر روی لایه‌ی اطلاعات برای شناسایی الگوها می‌باشد. متأسفانه، یادگیری ماشینی در لایه‌ی درک به محدودیت‌های خود نزدیک می‌شود، زیرا یافتن الگوها برای انجام استدلال کافی نیست. ما یادگیری ماشینی داریم، نه اما «استدلال ماشینی» لازم برای درک اینکه چرا الگوها اتفاق می‌افتند. این محدودیت را می‌توانید در عمل، زمانی که با یک «رُبات گفتگو» تعامل می‌کنید تجربه نمایید. در حالی که پردازش‌گرهای زبان‌های طبیعی (NLP) که با یادگیری ماشینی توانمندسازی شده‌اند در درک گفتار و هدف شما واقعاً خوب عمل می‌کنند، اما در درک‌کردن و استدلال‌کردن با محدودیت‌هایی مواجه هستند. برای مثال، اگر از یک دستیار صوتی بپرسید که آیا باید فردا بارانی بپوشید، متوجه نمی‌شود که از آب و هوا سؤال کرده‌اید. این یک انسان است که باید این بینش را در اختیار ماشین قرار دهد، چرا که دستیار صوتی نمی‌داند باران واقعاً چیست.

جلوگیری از شکست با حفظ آگاهی نسبت به داده‌ها

تجربه‌ی کلان‌داده‌ها (Big data) به ما آموخته است که چگونه با مقادیر زیادی از داده روبرو شویم. نه تنها اینکه چگونه آنها را ذخیره کنیم، بلکه چگونه تمام آن داده‌ها را پردازش، دستکاری و تجزیه و تحلیل کنیم. یادگیری ماشینی با توانایی کار با طیف گسترده‌ای از انواع مختلف داده‌های بدون ساختار، نیمه ساختاریافته و یا ساختاریافته‌ی جمع‌آوری‌شده توسط سازمان‌ها، ارزش بیشتری را برای ما به همراه داشته‌است. اتفاقاً، این آخرین موج AI در حقیقت یک موج تحلیلی مبتنی بر داده‌های بزرگ است.

اما دقیقاً به همین دلیل است که برخی از سازمان‌ها با این شدت در هوش مصنوعی شکست می‌خورند. به جای آنکه پروژه‌های هوش مصنوعی خود را با یک دیدگاه داده‌محور اجرا کنند، آنها بر جنبه‌های عملکردی آن تمرکز می‌کنند. سازمان‌ها برای در دست گرفتن مدیریت پروژه‌های هوش مصنوعی و اجتناب از اشتباهات مرگبار، نه تنها به درک بهتری از هوش مصنوعی و یادگیری ماشینی نیاز دارند، بلکه باید به «V»های کلان‌داده نیز توجه داشته‌باشند. این که چقدر داده در اختیار دارید به تنهایی اهمیت ندارد، بلکه ماهیت آن داده‌ها نیز مهم است. برخی از آن «V»های کلان‌داده عبارتند از:

  • حجم (Volume): آن مقدار و حجمی از کلان‌داده‌ها که در اختیار دارید.
  • سرعت (Velocity): آن سرعتی که کلان‌داده‌های شما در حال تغییر هستند. به‌کار بستن موفقیت‌آمیز هوش مصنوعی به معنای به‌کار بستن AI برای داده‌های با سرعت بالا است.
  • تنوّع (Variety): ممکن است داده‌ها در قالب‌های مختلفی از جمله داده‌های ساختاریافته مانند پایگاه‌های داده، داده‌های نیمه ساختاریافته مانند صورت‌حساب‌های فروش، و داده‌های بدون ساختار مانند ایمیل‌ها، فایل‌های تصویری و ویدئویی قرار گرفته باشند. سامانه‌های هوش مصنوعی موفق قادر هستند با این سطح از تنوّع داده‌ها سر و کار داشته باشند.
  • درستی (Veracity): این به کیفیت و دقت داده‌های شما و میزان اعتمادی که شما به داده‌هایتان دارید، اشاره می‌کند. زباله تحویل دهید، زباله تحویل می‌گیرید؛ به‌ویژه در سامانه‌های هوش مصنوعی مبتنی بر داده. به این ترتیب، سامانه‌های هوش مصنوعی موفق باید قادر باشند با تنوّع بالایی از کیفیت داده‌ها سر و کار داشته باشند.

با دهه‌ها تجربه در مدیریت پروژه‌های کلان‌داده، سازمان‌هایی که در هوش مصنوعی موفق هستند، در درجه‌ی اوّل در پروژه‌های کلان‌داده موفق بوده‌اند. آنهایی که در حال مشاهده‌ی نابودی پروژه‌های هوش مصنوعی خود هستند، کسانی هستند که به مسائل هوش مصنوعی خود با ذهنیت توسعه‌ی برنامه‌های کاربردی پرداخته‌اند.

مقدار زیاد داده‌های نادرست و کافی‌نبودن داده‌های صحیح، در حال نابودی پروژه‌های هوش مصنوعی هستند

در حالی که پروژه‌های هوش مصنوعی درست آغاز می‌شوند، فقدان داده‌های لازم و فقدان درک و سپس فقدان حل مسائل واقعی، پروژه‌های هوش مصنوعی را با نابودی مواجه ساخته‌است. سازمان‌ها همچنان در حال پیش‌روی بدون داشتن درک واقعی از داده‌های مورد نیاز خود و کیفیت آن داده‌ها هستند؛ این موضوع چالش‌های واقعی ایجاد کرده‌است.

یکی از دلایلی که سازمان‌ها این اشتباهات را در خصوص داده‌های خود مرتکب می‌شوند این است که برای انجام پروژه‌های هوش مصنوعی از هیچ رویکرد واقعی به غیر از روش‌های چابک (Agile) یا توسعه‌ی برنامه‌های کاربردی استفاده نمی‌کنند. با این حال، سازمان‌های موفق دریافته‌اند که بهره‌گیری از رویکردهای داده‌محورِ متمرکز بر درک داده‌ها را به‌عنوان یکی از اوّلین مراحل در رویکردهایشان در پروژه قرار دهند. روش‌شناسی CRISP-DM (فرایند استاندارد بین صنایع برای داده‌کاوی)، که بیش از دو دهه است که وجود دارد، درک داده‌ها را به عنوان اولین کاری که باید پس از تعیین نیازهای کسب‌وکار خود انجام دهید، مشخص می‌کند. با پایه قرار دادن روش CRISP-DM و افزودن روش‌های چابک به آن، روش‌شناسی مدیریت شناختی پروژه‌ها برای هوش مصنوعی (CPMAI)، درک داده‌ها در فاز دوی پیاده‌سازی را الزامی می‌داند. سایر رویکردهای موفق نیز به درک اطلاعات در اوایل پروژه تأکید دارند، زیرا بالاخره هر چه که باشد، پروژه‌های هوش مصنوعی پروژه‌های مبتنی بر داده‌ها هستند. و شما چگونه قادر خواهید بود یک پروژه‌ی موفق مبتنی بر داده‌ها را بنا بگذارید، بدون آنکه پروژه‌ی خود را با درک صحیح از داده‌ها اجرا نموده باشید؟ این قطعاً یک اشتباه مرگبار است که باید از آن اجتناب نمایید.

 

کاتلین والش یک شریک مدیریتی و تحلیل‌گر اصلی در شرکت تحقیق و مشاوره‌ی متمرکز بر هوش مصنوعی کاگنلیتکا (Cognilytica)، می‌باشد که بر کاربرد و استفاده از هوش مصنوعی (AI) در دو بخش عمومی و خصوصی متمرکز است. او همچنین میزبان پادکست محبوب AI Today بوده که یک پادکست برتر مرتبط با هوش مصنوعی است و موارد مختلف استفاده از هوش مصنوعی را برای دو بخش عمومی و خصوصی برجسته کرده و همچنین با کارشناسان مهمان در مورد موضوعات مرتبط با هوش مصنوعی مصاحبه می‌کند.


منتشر شده در وب‌سایت Forbes
برگردان توسط حامد معین‌فر
در شرکت مهندسین فناور پندار آریا – پنداریا