بایگانی برچسب برای: AI

هدایت چشم‌انداز در حال تغییر در امنیت مراکز داده

عنوان اصلی مقاله: Navigating The Changing Landscape In Data Center Security
تاریخ انتشار و نویسنده: by Tim Liu, Jun 28, 2023
وب‌سایت منتشر کننده: Forbes
 لینک اصلی مقاله

امنیت مراکز داده

گِتی (Getty)

این گونه به نظر می‌رسد که نرخ نوآوری‌ها در فناوری – و بدافزارها – سریع‌تر از هر زمان دیگر در حال رشد است. مدیران عامل (CEOs)، مدیران ارشد مالی (CFOs)، مدیران ارشد امنیت (CSOs) و سایر کسانی که مسؤول حفاظت از داده‌ها – یعنی باارزش‌ترین دارایی‌های یک شرکت – هستند، باید در رأس هرم پیشرفت‌های کلیدی باقی بمانند تا قادر باشند با چشم‌انداز در حال تغییر حوزه‌ی امنیت همگام شوند.

ما در حال مشاهده‌ی سه روند کلیدی در این حوزه هستیم که تلاش‌ها برای برقراری امنیت دسترسی در مراکز داده را در زمان حال و آینده شکل خواهند داد: ظهور هوش مصنوعی (AI) و یادگیری ماشین (ML)، پذیرش فزاینده‌ی اصول اعتماد صفر (Zero-trust principles) و نیاز به امنیتی که بتواند محیط‌های چنداَبری (Multi-cloud environments) را در بر بگیرد.

بهره‌گیری از هوش مصنوعی و یادگیری ماشینی برای افزایش امنیت

هوش مصنوعی و یادگیری ماشینی برای سال‌های متوالی در صنایع و سناریوهای متعدد مورد استفاده قرار گرفته‌اند، اما اخیراً با انتشار چَت‌جی‌پی‌تی (ChatGPT) و ابزارهای مصرفی مشابه دیگر، توانسته‌اند تخیّل عموم را به خود جلب نمایند. در حوزه‌ی امنیت مرکز داده، هوش مصنوعی و یادگیری ماشینی به ویژه برای تقویت سازوکارهای دفاعی، شناسایی ناهنجاری‌ها و شاخص‌های خطر و پاسخ‌دهی خودکار به تهدیدات نوظهور مناسب هستند.

به عنوان نمونه، اِی‌آی و اِم‌اِل قادر هستند با سرعتی بالا مجموعه‌ی داده‌های جمع‌آوری‌شده از گزارش‌ها (Logs) و جریان‌های دیگر اطلاعاتی را برای شناسایی تهدیدات احتمالی، حملات یا سوء‌استفاده از داده‌های شرکت و همچنین پیش‌بینی خطرات و آسیب‌پذیری‌های احتمالی تجزیه و تحلیل کنند. با استفاده از این شیوه‌ها می‌توان با خُرد کردن بسیار سریع حجم عظیمی از داده‌ها، به تیم‌های امنیتی کمک کرد که با توجه به مشغولیت‌های بیش از حد خود از بسیاری از کارهای دستی خسته‌کننده خلاص شوند.

علاوه بر این، آنها قادر هستند نرخ شناسایی کدهای مخرّب (Exploits) کوچک‌تر اما اغلب خطرناک‌تری مانند تهدیدات مستمر پیشرفته (APTs: Advanced persistent threats)، حملات روز صفر (Zero-day attacks) و تهدیدات داخلی را افزایش دهند. همچنین «جامعه‌ی بین‌الملل امنیت صنعتی» یا اَسیس اینترنشنال (ASIS International) خاطرنشان می‌کند: «این امکان وجود دارد که از ابزارهای هوش مصنوعی و یادگیری ماشینی برای کمک به تشخیص تهدیدها قبل از آنکه به بتوانند به سامانه‌ها آسیب برسانند و یا در جمع‌آوری داده‌های جرم‌شناسی برای کمک به واکنش در برابر حوادث و بازیابی از آنها استفاده کرد.»

با این حال، مشابه آنچه در همتایان هوش مصنوعی در رده‌ی مصرف‌کننده دیده می‌شود، ممکن است هوش مصنوعی و یادگیری ماشینی در امنیت مرکز داده نیز منجر به نتایج مثبت کاذب (False positives) شوند و در معرض سوگیری (Bias) قرار بگیرند. با «آموزش» زیرسیستم‌های هوش مصنوعی امنیتی (Security AI) در زمان برقراری تعاملات عادی ترافیکی در مرکز داده و نیز از طریق فنون دیگر، می‌توان دقت و اثربخشی را بهبود بخشید و آنها را با محیط، متناسب ساخت.

هوش مصنوعی و/یا یادگیری ماشینی در انواع فناوری‌های امنیت سایبری از جمله فایروال‌های نسل بعدی (Next-gen firewalls) و مدیریت اطلاعات و رویدادهای امنیتی (SIEM) و همچنین نمونه‌های جدیدتر معرفی‌شده در سکّوهای حفاظت از بارهای کاری ابری (Cloud workload protection)  تعبیه شده‌اند.

کنترل کردن دسترسی: زِدتی‌اِن‌اِی (ZTNA)

در حالی که هوش مصنوعی و یادگیری ماشینی اغلب برای تقویت امنیت «در داخل» مراکز داده استفاده می‌شوند، باید توجه داشت که کنترل اینکه «چه کسی» و «چه چیزی» ممکن است به منابع حیاتی دسترسی داشته باشد نیز حداقل به همان اندازه اهمیت دارد، اگر که حتی اهمیت آن بیشتر نباشد. در نتیجه، مدیران مراکز داده به طور فزاینده‌ای در حال اتخاذ رویکرد دسترسی شبکه با اعتماد صفر یا زِدتی‌اِن‌اِی (ZTNA) هستند که در آن با هر کاربر، دستگاه و یا تعامل، با دید بالقوه مخرّب رفتار می‌شود.

با زِدتی‌اِن‌اِی، تمام تلاش‌ها برای برقراری دسترسی به شبکه تنها پس از پایان عملیات کامل احراز هویت (Authentication) و تجویز دسترسی (Authorization) در سطح چندین عامل تأیید می‌شوند، و حتی همین دسترسی نیز فقط برای منابع مشخص بر اساس آگاهی زمینه‌ای از آن درخواست و «اصول حداقل امتیاز» اعطاء می‌شود. این فرایند در طول نشست به طور مستمر ادامه پیدا می‌کند تا هرگونه تغییر در وضعیت امنیتی یا سایر شاخص‌های تهدید را شناسایی نماید.

اصول اعتماد صفر در تضاد مستقیم با شبکه‌های خصوصی مجازی (VPN) هستند که معمولاً دسترسی را به تمام یک شبکه یا زیرشبکه (Subnet) باز می‌کنند. همچنین وی‌پی‌اِن‌ها به گونه‌ای طراحی شده‌اند که فقط یک بار در شروع نشست هویت کاربران را احراز و مجوز صادر می‌کنند و اغلب از یک سامانه‌ی ورود یکپارچه (SSO: Single Sign-On) برای اعطای دسترسی به طیف گسترده‌ای از خدمات، برنامه‌ها و داده‌ها استفاده می‌کنند.

«دسترسی شبکه با اعتماد صفر» با فلسفه‌ای که برای خود دارد می‌تواند سطح در معرض حمله را کاهش دهد و حتی از حرکات عرضی تهدیدات در مرکز داده جلوگیری نماید؛ مشخصاً «شبکه‌های ربات‌های آلوده» یا بات‌نت‌ها (Botnets)، باج‌افزارها (Ransomwares) و تهدیدهای مشابه دیگر. همچنین قادر است میدان دید را در کل محیط‌های شبکه‌ی فیزیکی و ابری برای پاسخ سریع‌تر به تهدیدات و همچنین ارائه‌ی مدیریت یکپارچه و مقیاس‌پذیری آسان‌تر گسترش دهد.

با این حال، اتخاذ رویکرد زِدتی‌اِن‌اِی (ZTNA) می‌تواند نسبتاً گران باشد و پیکربندی و مدیریت آن نیز اغلب پیچیده است. علاوه بر این، بر محیط پیرامونی تمرکز دارد و معمولاً قادر نیست حملات یا ناهنجاری‌ها را تشخیص دهد. بنابراین همچنان فناوری‌های امنیتی مضاعفی همانند آنچه در بالا ذکر شدند، مورد نیاز خواهند بود.

ایمن‌سازی محیط‌های چنداَبری

سومین روند کلیدی که در امنیت مراکز داده شاهد آن هستیم، گسترش استقرارهای چنداَبری و چالش‌های حفاظت از داده‌ها و برنامه‌ها در این سکّوهای متنوع است. مدیران مراکز داده به طور فزاینده‌ای در حال اتخاذ راهبردهای چنداَبری در جهت افزایش تاب‌آوری و اطمینان‌پذیری داده‌ها و خدمات، اجتناب از وابستگی مالکانه به فروشندگان، کاهش هزینه‌ها و سایر ملاحظات هستند.

با این حال، مراکز داده‌ای که یک محیط چنداَبری را به کار می‌گیرند، سطح در معرض حمله‌ی بسیار وسیع‌تری را نیز در دسترس قرار می‌دهند که منجر به پیچیدگی در عملیات شبکه و امنیت سایبری می‌شود. بنابراین، حفظ میدان دید و کنترل گسترده به یک ملاحظه‌ی کلیدی در طراحی و مدیریت این معماری‌ها تبدیل می‌شود.

برای مثال، سیاست‌ها و کنترل‌های امنیتی باید در سطح تمام ابرها پیاده‌سازی شوند و باید به طور منظم نگهداری و به‌روز نگاه داشته شوند. اغلب، یک سکّوی متمرکز که به گره‌ها یا نودهای (Nodes) محلّی وصل است، قادر است میدان دید و قابلیت پایش و مدیریت مرکزی وضعیت امنیت سایبری را در سراسر محیط چنداَبری فراهم کند. همچنین ممکن است این خدمات یا دستگاه‌ها در جهت ساده‌سازی عملیات، امکاناتی برای خودکارسازی و هماهنگ‌سازی ارائه دهند و در عین حال خطر وقوع خطاهای انسانی را به حداقل برسانند.

علاوه بر این، رمزنگاری داده‌ها – چه در حالت ذخیره و چه در حالت انتقال – می‌تواند وضعیت امنیتی را بیشتر تقویت کند و زِدتی‌اِن‌اِی قادر است محیط پیرامونی را بدون توجه به موقعیت فیزیکی آن، امن سازد.

خلاصه

همچنان که فناوری‌های امنیتی مراکز داده و چشم‌انداز تهدیدات تکامل می‌یابند، این بسیار حیاتی است که با چالش‌های نوظهور سازگار شویم. در حال حاضر این سه روند کلیدی در صدر توجه بسیاری از مدیران ارشد امنیت و سایرینی که مسؤول امنیت مراکز داده و داده‌های حساس موجود در آنها هستند، قرار گرفته‌اند. این و سایر پیشرفت‌ها می‌توانند تاب‌آوری در برابر تهدیدات پیچیده و همچنین دسترسی‌های غیرمجاز یا سوء‌استفاده از داده‌ها را بهبود بخشند.

مدیران رده‌ی ارشد (C-suite) با آگاه‌ماندن از این روندها و سایر روندهای امنیتی، قادر هستند به تیم‌های فناوری خود در اجرای راهبردهای قوی امنیتی که با اهداف کسب‌وکار همسو هستند، کمک کنند.

 

تیموتی لیو (Timothy Liu) مدیر ارشد فناوری (CTO) و یکی از بنیان‌گذاران شبکه‌های هیل‌استون (Hillstone Networks) است . سوابق کامل اجرایی تیم لیو را در این آدرس بخوانید.

منتشر شده در وب‌سایت فوربس Forbes
توسط تیم لیو (Tim Liu)، ۲۸ ژوئن ۲۰۲۳
برگردان توسط حامد معین‌فر
در شرکت مهندسین فناور پندار آریا – پنداریا

چَت‌جی‌پی‌تی نیاز دارد برای هر ۲۰ الی ۵۰ سوالی که پرسیده می‌شود، یک بطری کامل آب شیرین «بنوشد»

عنوان اصلی مقاله: ChatGPT needs to ‘drink’ a water bottle’s worth of fresh water for every 20 to 50 questions you ask
تاریخ انتشار و نویسنده: by Will Gendron, Apr 14, 2023
وب‌سایت منتشر کننده: Business Insider
 لینک اصلی مقاله

تخمین زده می‌شود که چَت‌جی‌پی‌تی برای هر ۲۰تا ۵۰ پرسش و پاسخ، یک بطری استاندارد ۵۰۰ گرمی آب مصرف می‌کند. عکس از نارایان ماهارجان (Narayan Maharjan) /نورفوتو (NurPhoto) از طریق گِتی ایمِجز (Getty Images)

 

با هجوم عموم مردم به سمت ابزارهای هوش مصنوعی مولّد از جمله چَت‌جی‌پی‌تی (ChatGPT)، تأثیر زیست‌محیطی این فناوری جدید در شرف آشکارشدن است.

هر چند تا این لحظه داده‌های بسیار کمی در مورد هوش مصنوعی و قابلیت پایدارپذیری (Sustainability) آن وجود دارد، نوک پیکان مطالعه‌ی اخیر مشترک میان محقّقان دانشگاه کالیفرنیا در ریورساید (Riverside) و دانشگاه تگزاس در آرلینگتون (Arlington) به سمت ردّپای آبی مدل‌های هوش مصنوعی از جمله GPT-3 و GPT-4 از اُپن‌اِی‌آی (OpenAI) نشانه رفته‌است.

تخمین زده شده‌است که مایکروسافت در حین آموزش GPT-3 در مراکز داده‌ی خود، ۷۰۰٬۰۰۰ لیتر یا حدود ۱۸۵٬۰۰۰ گالن آب شیرین مصرف کرده‌است. این مقدار آب، طبق گفته‌ی گیزمودو (Gizmodo) برای پر کردن برج خنک‌کننده‌ی یک راکتور هسته‌ای کافی است، و نیز برابر با همان مقداری است که برای تولید ۳۷۰ خودروی بی‌ام‌و (BMW) یا ۳۲۰خودروی تسلا (Tesla) استفاده می‌شود.

با استفاده از این اعداد، مشخص شده‌است که چَت‌جی‌پی‌تی برای هر ۲۰ تا ۵۰ سوالی که پاسخ می‌دهد به ۵۰۰ میلی‌لیتر آب یا یک بطری بزرگ آب آشامیدنی احتیاج دارد.

نویسندگان این مطالعه، با توجه به پایگاه بزرگان کاربران چَت‌جی‌پی‌تی می‌گویند: «هرچند ممکن است یک بطری آب ۵۰۰ میلی‌لیتری خیلی زیاد به نظر نرسد، اما مجموع ترکیب ردّپای آبی تا رسیدن کاربران به نتیجه استنتاجات خود همچنان بسیار زیاد است».

یکی از سخن‌گویان شرکت مایکروسافت در بیانیه‌ای به اینسایدر (Insider) گفت: مایکروسافت «در حال سرمایه‌گذاری تحقیقاتی بر روی اندازه‌گیری مصرف انرژی و تاثیر کربنی هوش مصنوعی است، در حالی که هم‌زمان بر روی راهکارهایی برای کارآمدترسازی سامانه‌های بزرگ، چه در زمان آموزش و چه در زمان کاربرد هوش مصنوعی کار می‌کند.»

او افزود: «ما هم‌چنان به سرمایه‌گذاری در خرید انرژی‌های تجدیدپذیر و سایر تلاش‌ها برای دستیابی به اهداف خود در پایدارپذیری، یعنی منفی‌شدن کربنی (Carbon Negative)، مثبت‌شدن آبی (Water Positive) و صفرشدن ضایعاتی (Zero Waste) تا سال 2030 ادامه می‌دهیم.»

اُپن‌اِی‌آی به درخواست‌های اینسایدر برای اظهار نظر در این خصوص پاسخی نداد.

مدل‌های هوش مصنوعی از جمله GPT-3 و GPT-4 در مراکز داده میزبانی می‌شوند، که انبارهایی هستند فیزیکی که ردیف‌های بزرگی از سرورهای محاسباتی را در خود جای داده‌اند. کار این سرورها شناسایی روابط و الگوها در میان مجموعه‌ی عظیمی از داده‌ها می‌باشد که به نوبه‌ی خود مصرف‌کننده‌ی انرژی هستند؛ چه از نوع برق باشد یا زغال سنگ، انرژی هسته‌ای یا گاز طبیعی.

منابع قابل توجهی از انرژی در فرایند آموزش هوش مصنوعی مصرف شده که بلافاصله تبدیل به گرما می‌شوند. سپس از منابع آب موجود در محل برای کنترل دما در کل زیرساخت‌ها استفاده می‌شود. بر مبنای این مطالعه، برای کنترل رطوبت در سطح مناسب و نیز از آنجایی که آب شور می‌تواند منجر به خوردگی، گرفتگی لوله‌های آب و رشد باکتری‌ها شود، برای این منظور آب شیرین مورد نیاز می‌باشد.

به گفته‌ی محقّقان، در این مسیر رو به جلو، این ارقام می‌توانند «برای GPT-4 که تازه راه‌اندازی شده‌است و اندازه‌ی مدل بسیار بزرگ‌تری دارد، چندین برابر افزایش یابد.»

تیم محقّقان با استفاده از یک روش متعلّق به خود که اثربخشی مصرف آب (WUE) در محل و خارج از محل مرکز داده را محاسبه می‌کند، موفّق شده‌اند علاوه بر مصرف انرژی، تخمین‌هایی را نیز از ردّپای آبی مدل زبان بزرگ گوگل که لامدا (LaMDA) نامد دارد، به‌دست آورند.

با این حال، عدم وجود شفافیت در خصوص ارقام آب مصرفی مرتبط با آموزش هوش مصنوعی، در نهایت تعیین دقیق ردّپای واقعی آبی را دشوار می‌سازد. وقتی از گوگل در خصوص مصرف آب لامدا سوال شد، ما را به گزارش نوامبر ۲۰۲۲ خود ارجاع داد که در آن داده‌های سال ۲۰۲۱ مصرف گسترده‌ی آب در مراکز داده منتشر شده‌است.

محقّقان نوشته‌اند: «در حالی که نمی‌توان بدون وجود داده‌های دقیق از گوگل ردّپای واقعی آبی را شناخت، تخمین ما نشان می‌دهد که کل ردّپای آبی آموزش لامدا به مراتبی در حدود میلیون‌ها لیتر است.»

در حالی که ردّپای کربنی درگیر در هوش مصنوعی مولّد، زنگ‌های خطر را به صدا در آورده‌است، محقّقان می‌گویند که مقاله‌ی آنها به دنبال این است که «ضرورت پرداختن به ردّپای آبی در کنار ردّپای کربنی را برای امکان‌دادن به هوش مصنوعی واقعاً پایدار‌پذیر، برجسته نماید.»

منتشر شده در وب‌سایت Business Insider
توسط ویل گِندرون (Will Gendron) ، ۱۴ آوریل ۲۰۲۳
برگردان توسط حامد معین‌فر
در شرکت مهندسین فناور پندار آریا – پنداریا

هوش مصنوعی چگونه مدیریت پروژه‌ها را متحوّل خواهد کرد

عنوان اصلی مقاله: How AI Will Transform Project Management
تاریخ انتشار و نویسنده: by Antonio Nieto-Rodriguez and Ricardo Viana Vargas, February 02, 2023
وب‌سایت منتشر کننده: Harvard Business Review
 لینک اصلی مقاله

خلاصه: امروزه، تنها ۳۵درصد از پروژه‌ها با موفقیت به سرانجام می‌رسند. یکی از دلایل این نرخ ناامیدکننده در سرنوشت پروژه‌ها، سطح پایین بلوغ فناوری‌های در دسترس برای مدیریت پروژه‌ها است. امّا اکنون این وضعیت در حال تغییر است. محقّقان، شرکت‌های نوپا و سازمان‌های نوآور، شروع به بهره‌گیری از هوش مصنوعی (AI)، یادگیری ماشینی (ML) و سایر فناوری‌های پیشرفته در مدیریت پروژه‌ها کرده‌اند و این حوزه تا سال ۲۰۳۰ دستخوش تغییرات اساسی خواهدشد. به زودی این دست از فناوری‌ها انتخاب و اولویت‌بندی پروژه‌ها را بهبود خواهند بخشید، بر پیشرفت آنها نظارت خواهند کرد، سرعت تولید گزارشات را افزایش خواهند داد و موجب تسهیل در آزمون‌های تحویل خواهند شد. مدیران پروژه، با بهره‌گیری دستیاران مجازی در پروژه‌ها، بیشتر از آنکه نقش خود را بر کارهای اداری و دستی متمرکز سازند، به مربّی‌گری اعضای تیم پروژه و مدیریت انتظارات ذی‌نفعان خواهند پرداخت. نویسندگان این مقاله می‌خواهند نشان دهند که چگونه سازمان‌هایی که تمایل دارند از مزایای فناوری‌های نوین در مدیریت پروژه‌ها بهره ببرند، باید از همین امروز کار خود را با جمع‌آوری و پاک‌سازی داده‌های موجود در پروژه‌ها آغاز نمایند.

تصوّر نمایید در آینده‌ای نزدیک، مدیر عامل یک شرکت بزرگ ارائه‌دهنده‌ی خدمات مخابراتی چگونه از یک برنامه‌ی کاربردی بر روی گوشی هوشمند خود برای بررسی آخرین وضعیت «هفت ابتکار راهبردی» که در سازمان او در حال اجراست، استفاده خواهد کرد. تنها با چند اشاره، او از وضعیت هر پروژه و این‌که چند درصد از مزایای مورد انتظار در آن پروژه محقّق شده‌اند مطلع می‌شود. در هر لحظه، منشورهای پروژه (Project Charters) و شاخص‌های کلیدی عملکرد (KPI) در دسترس او هستند، همین‌طور سطح روحیه‌ی هر یک از اعضای تیم پروژه و میزان کلّی رضایت ذی‌نفعان کلیدی.

او به عمق بیشتری از جزئیات «اقدام ابتکاری برای بازسازی نام تجاری سازمان» دسترسی دارد. چند ماه پیش‌تر، یک رقیب بزرگ، یک خط تجاری جدید اصطلاحاً «سبز» راه‌اندازی کرده‌بود که باعث شد شرکت او نیز سرعت پیاده‌سازی راه‌حل‌های مبتنی بر قابلیت‌های پایداری (Sustainability) را افزایش دهد. بر اساس مؤلّفه‌های انتخاب‌شده در زمان آغاز این «اقدام ابتکاری» توسط مدیر پروژه و تیم پروژه، بسیاری از خودتنظیم‌گرهای مبتنی بر هوش مصنوعی از قبل اعمال شده‌اند. این برنامه‌ی کاربردی، مدیر عامل را از هر تغییری که نیاز به توجّه داشته‌باشد – و همچنین مخاطرات بالقوه‌ی ناشی از آن تغییرات – آگاه می‌سازد و تصمیماتی را که او باید اتخاذ نماید اولویت‌بندی کرده و راه‌حل‌های بالقوه را نیز برای هر کدام از آن موضوعات پیشنهاد می‌کند.

مدیر عامل قبل از هر انتخاب یا اقدامی، ابتدا با مدیر پروژه که اکنون بیشتر وقت خود را صرف مربّی‌گری و پشتیبانی از تیمش کرده‌است، ارتباط خود با سهامداران کلیدی را به صورت منظّم حفظ نموده و یک فرهنگ با عملکرد بالا را پرورش داده‌است، تماس می‌گیرد. چند هفته پیش، پروژه دچار اندکی تأخیر شده‌بود و برنامه‌ی کاربردی روی گوشی هوشمند مدیر عامل به او توصیه کرده‌بود که تیم باید از شیوه‌های چابک (Agile) برای سرعت‌بخشیدن به یک رشته‌ی خاص از فعالیت‌ها در پروژه بهره بگیرد.

در طول جلسه، آنها راه‌حل‌های احتمالی را شبیه‌سازی کرده و در خصوص مسیر پیشِ رو به توافق می‌رسند. برنامه‌ی پروژه به طور خودکار به‌روز شده و پیام‌هایی ارسال می‌شوند تا اعضای مرتبط در تیم و ذی‌نفعان پروژه را از تغییرات و پیش‌بینی نتایج مورد انتظار ناشی از آن تغییرات مطّلع نماید.

به لطف فناوری‌ها و روش‌های جدید کاری، یک پروژه‌ی راهبردی که احتمال داشت از کنترل خارج شود – یا شاید حتّی منجر به شکست شود – اکنون دوباره در مسیر صحیح منتج به موفقیت و حصول نتایج مورد انتظار قرار گرفته‌است.

چنانچه به زمان حال بازگردیم، مدیریت پروژه‌ها همواره به همین راحتی‌ها پیش نمی‌رود، اما این آینده‌ای است که آن را برای شما ترسیم کردیم و احتمالاً کوتاه‌تر از یک دهه‌ی دیگر به حقیقت خواهد پیوست. برای اینکه زودتر به آنجا برسیم، سازمان‌ها و نوآوران باید از هم‌اکنون بر روی فناوری‌های مدیریت پروژه سرمایه‌گذاری نمایند.

مدیریت پروژه‌ها در زمان حال و مسیر پیشِ روی آن

هر ساله حدود ۴۸ تریلیون دلار در پروژه‌های مختلف سرمایه‌گذاری می‌شود. با این حال، طبق آمار گروه اِستَندیش (Standish)، تنها ۳۵ درصد از پروژه‌ها موفّق ارزیابی می‌شوند. در ۶۵ درصد دیگر پروژه‌ها میزان هَدررفت منابع و مزایای تحقّق‌نیافته مایه‌ی شگفتی است.

سال‌هاست که در تحقیقات و انتشارات خود، نوسازی روش‌های مدیریت پروژه را ترویج کرده‌ایم. متوجّه شده‌ایم که یکی از دلایلی که موجب نرخ موفقیت بسیار ضعیف در پروژه‌ها است، سطح پایین بلوغ فناوری‌های موجود برای مدیریت آنها است. اکثر سازمان‌ها و رهبران پروژه هم‌چنان از «صفحات گسترده» (Spreadsheets)، اسلایدها و سایر برنامه‌هایی استفاده می‌کنند که در چند دهه‌ی گذشته پیشرفت چندانی نداشته‌اند. شاید این ابزارها برای ارزیابی موفقیت پروژه با اندازه‌گیری نتایج قابل تحویل (Deliverables) و موعدهای مقرّر (Deadlines) کافی باشند، اما این ابزارها در محیطی که پروژه‌ها و اقدامات ابتکاری همواره در حال تطبیق با شرایط جدید هستند و کسب‌وکار به طور مداوم تغییر می‌کند، ناکافی هستند. پیشرفت‌هایی در برنامه‌های مدیریت سبد (پورتفوی) پروژه‌ها حاصل شده‌است، اما هنوز قابلیت برنامه‌ریزی برای ایجاد همکاری‌های بین تیمی، خودکارسازی و بهره‌گیری از ویژگی‌های «هوشمند» وجود ندارد.

اگر در مدیریت پروژه‌ها هوش مصنوعی و سایر نوآوری‌های مبتنی بر فناوری قادر باشند نسبت موفقیت در آنها را تنها تا ۲۵ درصد بهبود بخشند، ارزش و مزایای به‌کارگیری این ابزارها برای سازمان‌ها، جوامع و افراد معادل تریلیون‌ها دلار خواهد بود. تمام هسته‌های فناوری که در داستان بالا شرح داده شدند همین حالا نیز آماده‌ی بهره‌برداری هستند؛ اکنون تنها سؤال این است که با چه سرعتی می‌توان این ابزارها را به طور مؤثّری در مدیریت پروژه‌ها اعمال کرد.

تحقیقات گارتنر (Gartner) نشان می‌دهند که تغییرات به سرعت در راه هستند و پیش‌بینی می‌کنند که تا سال ۲۰۳۰، ۸۰ درصد از وظایف مدیران پروژه توسط هوش مصنوعی که از کلان‌داده‌ها (Big Data)، یادگیری ماشینی (ML) و پردازش زبان طبیعی (NLP) پشتیبانی می‌کند، اجرا خواهند شد. تعدادی از محقّقان، مانند پُل بودریو (Paul Boudreau) در کتاب خود، استفاده از ابزارهای هوش مصنوعی در مدیریت پروژه، و تعداد فزاینده‌ای از شرکت‌های نوپا، مجموعه‌ای از الگوریتم‌ها (خوارزمی‌ها!) را برای به‌کارگیری هوش مصنوعی و یادگیری ماشینی در دنیای مدیریت پروژه توسعه داده‌اند. زمانی که این نسل بعدی از ابزارها به طور گسترده مورد استفاده قرار گیرند، تغییرات اساسی نیز  به وقوع خواهند پیوست.

شش جنبه از مدیریت پروژه که متحوّل خواهند شد

ما پیشرفت‌های فناورانه‌ی پیشِ رو را فرصتی می‌بینیم که هیچ‌گاه وجود نداشته‌اند. آن سازمان‌ها و رهبران پروژه‌ای که بیشترین آمادگی را برای این لحظه‌ی تحوّل‌آفرین دارند، بیشترین پاداش را از آن کسب خواهند کرد. تقریباً تمام جنبه‌های مدیریت پروژه، از برنامه‌ریزی گرفته تا فرایندها و افراد درگیر در پروژه‌ها، تحت تأثیر قرار خواهند گرفت. بیایید نگاهی به این شش حوزه‌ی کلیدی بیندازیم.

۱- انتخاب و اولویت‌بندی بهتر پروژه‌ها

انتخاب و اولویت‌بندی، هر دو مهارت‌هایی از نوع پیش‌بینی هستند: کدام پروژه‌ها بیشترین ارزش را برای سازمان خواهند آفرید؟ چنانچه داده‌های صحیح در دسترس باشند، یادگیری ماشینی قادر است الگوهایی را تشخیص دهد که با روش‌های دیگر قابل تشخیص نیستند و لذا می‌تواند بسیار فراتر از دقّت انسان‌ها در انجام پیش‌بینی‌ها برود. اولویت‌بندی مبتنی بر یادگیری ماشینی به زودی منجر به حصول مزیّت‌های زیر خواهد شد:

– شناسایی سریع‌تر آن دسته از پروژه‌های آماده به کار که پایه و اساس اولیه‌ی یک پروژه را در اختیار دارند
– انتخاب پروژه‌هایی که شانس موفقیت بیشتری دارند و بالاترین آورده را برای سازمان خواهند داشت
– تعادل بهتر در سبد پروژه‌ها و ارائه‌ی نمای اجمالی از وضعیت مخاطرات در سازمان
– حذف سوگیری‌های انسانی از فرایندهای تصمیم‌گیری

۲- پشتیبانی از دفاتر مدیریت پروژه

شرکت‌های نوپا در زمینه‌ی تجزیه‌وتحلیل و خودکارسازی داده‌ها اکنون به سازمان‌ها این یاری را می‌رسانند تا نقش دفاتر مدیریت پروژه (PMO) را ساده و بهینه سازند. معروف‌ترین نمونه‌ی آن، استفاده‌ی رئیس‌جمهور فرانسه امانوئل ماکرون از جدیدترین فناوری برای به‌روز نگاه‌داشتن اطلاعات خود در خصوص تمامی پروژه‌های بخش عمومی فرانسه است. این ابزارهای هوشمند جدید، نحوه‌ی عملیات و عملکرد دفاتر مدیریت پروژه را به طور اساسی در موارد زیر تغییر خواهند داد:

– نظارت بهتر بر پیشرفت پروژه‌ها
– قابلیت پیش‌بینی مشکلات احتمالی و رسیدگی خودکار به برخی از موارد که ساده‌تر هستند
– تهیه و توزیع خودکار گزارش‌های پروژه و جمع‌آوری بازخوردها از مخاطبین
– پیچیدگی بیشتر در انتخاب بهترین روش مدیریت پروژه برای هر پروژه‌ی خاص
– نظارت بر وضعیت انطباق پروژه‌ها با فرایندها و سیاست‌ها
– خودکارسازی کارکردهای پشتیبان، با بهره‌گیری از دستیارهای مجازی پروژه، همچون به‌روزرسانی وضعیت‌ها، ارزیابی مخاطرات و تجزیه‌وتحلیل ذی‌نفعان

۳- تسریع و بهبود در تعریف، برنامه‌ریزی و گزارش‌دهی پروژه‌ها

یکی از حوزه‌های بیشتر توسعه‌یافته برای خودکارسازی مدیریت پروژه، موضوع مدیریت مخاطرات است. برنامه‌های کاربردی جدید از کلان‌داده‌ها و یادگیری ماشینی برای کمک به رهبران و مدیران پروژه برای پیش‌بینی مخاطراتی که در غیر این صورت ممکن بود مورد توجه قرار نگیرند، استفاده می‌کنند. این ابزارها می‌توانند اقداماتی برای تخفیف مخاطرات (Risk Mitigation) پیشنهاد دهند و به زودی خواهند توانست برنامه‌های مدیریت مخاطرات را به طور خودکار به نحوی که موجب جلوگیری از بروز انواع خاصی از مخاطرات شوند، تنظیم نمایند.

رویکردهای مشابه دیگری نیز به زودی تعریف، برنامه‌ریزی و گزارش‌دهی در پروژه‌ها را تسهیل خواهند کرد. در حال حاضر انجام این تکالیف زمان‌بر، تکراری و بیشتر آنها دستی هستند. یادگیری ماشینی، پردازش زبان طبیعی و خروجی متن ساده (Rich text) منجر به دستاوردهای زیر خواهند شد:

– بهبود مدیریت محدوده در پروژه‌ها با خودکارسازی جمع‌آوری و تجزیه‌وتحلیل زمان‌بر دانسته‌های کاربران. این ابزارها مشکلات احتمالی‌ای مانند ابهامات، تکرارها، جا افتادن‌ها، ناهماهنگی‌ها و پیچیدگی‌ها را آشکار می‌سازند.
– ابزارهایی برای تسهیل فرایندهای زمان‌بندی و پیش‌نویسی برنامه‌های تفصیلی و مدیریت تقاضا برای تخصیص منابع در پروژه‌ها
– گزارش‌دهی خودکار به نحوی که نه تنها گزارشات با کار کمتری تولید خواهند شد، بلکه اطلاعات موجود در گزارش‌های امروزی، که اغلب چندین هفته قدیمی هستند، با داده‌های بی‌درنگ جایگزین می‌شوند. همچنین این ابزارها عمیق‌تر از آنچه که اکنون امکانش وجود داشته باشد در داده‌ها کنکاش خواهند کرد و وضعیت پروژه‌ها، مزایای به‌دست‌آمده، لغزش‌های احتمالی و احساسات درون‌تیمی را به روشی واضح و عینی نشان می‌دهند.

۴- دستیاران مجازی پروژه

در عمل چَت‌جی‌پی‌تی (ChatGPT) یک شبه درک جهان را نسبت به آنکه چگونه هوش مصنوعی قادر است مجموعه‌ای از داده‌ها را تجزیه‌وتحلیل نموده و بینش‌های جدید و آنی را در قالب خروجی متن ساده تولید کند، تغییر داد. ابزارهایی از این دست در مدیریت پروژه‌ها، به «ربات‌ها» یا «دستیاران مجازی» قدرت می‌بخشند. اوراکل (Oracle) اخیراً دستیار دیجیتالی مدیریت پروژه‌ی جدیدی را معرفی کرده‌است که امکان به‌روزرسانی آنی وضعیت‌ها در پروژه را ارائه می‌دهد و به کاربران کمک می‌کند تا زمان و پیشرفت کارها را از طریق متن، صدا یا گَپ (Chat) به‌روزرسانی نمایند.

این دستیار دیجیتالی از داده‌های قبلی واردشده برای ثبت زمان‌ها، داده‌های برنامه‌ریزی پروژه و زمینه‌ی کلی پروژه یاد می‌گیرد تا تعاملات را تنظیم کرده و اطلاعات حیاتی پروژه را به‌طور هوشمندانه ثبت نماید. پی‌موتو (PMOtto) یک دستیار مجازی پروژه با قابلیت یادگیری ماشینی است که در حال حاضر نیز استفاده می‌شود. یک کاربر می‌تواند از پی‌موتو بخواهد: «برنامه‌ی جان (John) را برای نقاشی دیوارها در هفته آینده تنظیم کن و او را تمام وقت به این کار تخصیص بده». دستیار ممکن است پاسخ دهد، «بر اساس وظایف مشابه قبلی که به جان اختصاص داده شده‌اند، به نظر می‌رسد که او برای انجام کار به دو هفته زمان نیاز داشته باشد و نه یک هفته آنطور که شما درخواست کردید. آیا باید آن را تنظیم کنم؟»

۵- سامانه‌ها و نرم‌افزارهای پیشرفته برای آزمون نتایج

آزمون نتایج تحویل‌دادنی یکی دیگر از وظایف ضروری در اکثر پروژه‌ها هستند و مدیران پروژه مجبور هستند این آزمون‌ها را با سرعت و تداوم انجام دهند. امروزه به ندرت می‌توان پروژه‌ای بزرگ را یافت که فاقد چندین سامانه و انواع نرم‌افزارهایی باشد که باید قبل از تحویل پروژه آزمایش شوند. به زودی و به‌طور گسترده، سامانه‌های پیشرفته‌ی آزمون که اکنون فقط برای پروژه‌های بزرگ قابل استفاده هستند، بیشتر در دسترس خواهند بود.

خط ریلی الیزابت که بخشی از پروژه‌ی کراس‌ریل (Crossrail) در بریتانیا است، یک راه‌آهن پیچیده با ایستگاه‌های جدید، زیرساخت‌های جدید، مسیرهای جدید و قطارهای جدید است. بنابراین، مهم است که تک‌تک عناصر پروژه از یک فرایند آزمون و راه‌اندازی دقیق برای اطمینان از ایمنی و قابلیت اطمینان‌پذیری در آنها، عبور داده شوند. این عملیات به ترکیبی از سخت‌افزارها و نرم‌افزارهایی که قبلاً وجود نداشتند نیاز داشت و پس از چالش‌های اولیه، تیم پروژه «تأسیسات یکپارچه‌سازی کراس‌ریل» را توسعه داد. این تأسیسات آزمون کاملاً خودکار که خارج از سایت پروژه قرار دارد، اکنون ثابت کرده‌است که چه ارزش غیرقابل اندازه‌گیری‌ای در افزایش کارایی، به‌صرفه‌سازی و انعطاف‌پذیری سامانه‌ها داشته‌است. مهندس این سامانه، اَلِساندرا شول-اِستِرنبرگ (Alessandra Scholl-Sternberg) برخی از ویژگی‌های آن را این‌گونه شرح می‌دهد: «کتابخانه‌ی گسترده‌ای از خودکارسازی سامانه‌ها نوشته شده‌است که امکان دستیابی به تنظیمات پیچیده، انجام دقیق بررسی‌های سلامت، انجام آزمون‌های استقامتی در دوره‌های طولانی و اجرای آزمون‌هایی با ماهیت تکراری را فراهم می‌سازند.» در این مرکز ، امکان انجام ممیزی‌های دقیق به‌صورت ۲۴×۷ بدون نگرانی از مخاطرات و تأثیر ناشی از سوگیری کاربران سامانه وجود دارد.

به زودی، راه‌حل‌های پیشرفته و خودکار برای انجام آزمون سامانه‌ها در پروژه‌های نرم‌افزاری، امکان تشخیص زودهنگام عیوب و اجرای فرایندهای خوداصلاح‌گر را فراهم می‌سازند. این امر زمان صرف‌شده برای فعالیت‌های دست‌وپاگیر در آزمون‌ها را به میزان قابل توجهی کاهش می‌دهد، تعداد دوباره‌کاری‌ها را کم می‌کند و در نهایت راه‌حل‌هایی با کاربری آسان و بدون اشکال ارائه می‌دهد.

۶- یک نقش جدید برای مدیران پروژه

ممکن است خودکارسازیِ بخش قابل توجهی از وظایف فعلی مدیران پروژه، برای بسیاری از آنها ترسناک باشد، اما افراد موفّق یاد خواهند گرفت که از این ابزارها به نفع خود استفاده نمایند. مدیران پروژه حذف نخواهند شد، بلکه مجبور خواهند شد این تغییرات را بپذیرند و از فناوری‌های جدید بهره ببرند. ما در حال حاضر تیم‌های چندتخصّصی در پروژه‌ها را با ترکیبی متشکّل از افراد مختلف می‌شناسیم، اما ممکن است به زودی آنها را به شکل گروه‌هایی متشکّل از انسان‌ها و ربات‌ها در کنار یکدیگر ببینیم.

در آینده مدیران پروژه با دور شدن از کارهای اداری، باید مهارت‌های قوی نرم، قابلیت‌های رهبری، تفکّر راهبردی و هوش تجاری را در خود پرورش دهند. آنها باید بر حصول منافع مورد انتظار و هم‌سویی آن منافع با اهداف راهبردی سازمان تمرکز نمایند. همچنین آنها به یک درک خوب از این فناوری‌ها نیاز خواهند داشت. برخی از سازمان‌ها در حال حاضر نیز هوش مصنوعی را در برنامه‌های آموزشی و صدور گواهینامه‌های مدیریت پروژه‌ی خود وارد کرده‌اند؛ دانشگاه نورث‌ایسترن (Northeastern University) هوش مصنوعی را در برنامه‌های آموزش خود گنجانده است و به مدیران پروژه آموزش می‌دهد که چگونه از هوش مصنوعی برای خودکارسازی و بهبود مجموعه‌ی داده‌ها و بهینه‌سازی ارزش سرمایه‌گذاری در پروژه‌ها استفاده نمایند.

داده‌ها و انسان‌ها به آینده واقعیت می‌بخشند

چگونه می‌توانید اطمینان داشته‌باشید، زمانی که این ابزارها برای استفاده در سازمان‌ها به آمادگی کافی برسند، سازمان شما نیز آمادگی لازم برای استفاده از آنها را خواهد داشت؟ هر فرایند پذیرش فناوری‌های هوش مصنوعی در سازمان با آماده‌سازی داده‌ها آغاز می‌شود، اما شما نباید نسبت به آماده‌سازی افراد تیم خود نیز کوتاهی نمایید.

آموزش الگوریتم‌های هوش مصنوعی برای مدیریت پروژه‌ها به مقادیر زیادی داده‌های مرتبط با پروژه احتیاج دارد. شاید سازمان شما مجموعه‌ای از داده‌های تاریخی پروژه‌ها را حفظ کرده‌باشد، اما به احتمال زیاد این داده‌ها در هزاران سند در قالب‌های مختلف پراکنده هستند و در سامانه‌های متعدّد ذخیره‌سازی شده‌اند. این اطلاعات ممکن است قدیمی باشند، ممکن است از طبقه‌بندی‌های مختلف استفاده کرده‌باشند، یا حاوی داده‌های بی‌ربط و یا شکاف‌هایی در داده‌های اصلی باشند. تقریباً 8۰ درصد از زمان صرف‌شده برای آماده‌سازی الگوریتم‌های یادگیری ماشینی بر روی جمع‌آوری و پاک‌سازی داده‌ها تمرکز دارد که طی آن، داده‌های خام و بدون ساختار به داده‌های ساختاریافته‌ای تبدیل می‌شوند که قادر هستند یک مدل یادگیری ماشینی را آموزش دهند.

هرگز تحوّل هوش مصنوعی در سازمان شما بدون وجود داده‌های در دسترس و داده‌های مدیریت‌شده‌ی مناسب اتفاق نخواهد افتاد؛ اما اگر خود و تیم‌تان را برای تغییر آماده نکنید‌ نیز هیچ تحوّلی در هوش مصنوعی شکوفا نخواهد شد.

این نسل جدید از ابزارها نه تنها فناوری‌هایی را که ما در مدیریت پروژه‌ها استفاده می‌کنیم تغییر می‌دهند، بلکه کار ما را نیز به کلی در پروژه‌ها متحوّل خواهند کرد. مدیران پروژه باید برای مربّی‌گری و آموزش تیم‌های خود جهت انطباق با این انتقال آماده باشند. آنها باید تمرکز خود را بر روی تعاملات انسانی افزایش دهند و در عین حال کاستی‌های مهارتی فناورانه را در افراد خود شناسایی کرده و برای رفع آنها تلاش نمایند. مدیران پروژه باید علاوه بر تمرکز بر نتایج تحویل‌دادنی در پروژه‌ها، بر ایجاد تیم‌هایی با عملکرد بالا نیز تمرکز نمایند، به گونه‌ای که اعضای تیم آنچه را که به آنها اجازه می‌دهد بهترین عملکرد را از خود نشان دهند، در اختیار دارند.

اگر به طور جدی در حال بررسی استفاده از هوش مصنوعی در پروژه‌ها و شیوه‌های مدیریت پروژه‌ی خود هستید، سؤالات زیر به شما کمک می‌کنند تصمیم خود را بهتر ارزیابی نمایید؛

– آیا این آمادگی را دارید تا برای تهیه فهرست دقیقی از تمام پروژه‌های در اختیار خود، از جمله آخرین وضعیت به‌روزشده در آنها، زمان صرف نمایید؟
– آیا قادر هستید بخشی از منابع خود را چندین ماه برای جمع‌آوری، پاک‌سازی و ساختارمندسازی داده‌های موجود در پروژه‌های خود اختصاص دهید؟
– آیا تصمیم خود را گرفته‌اید که عادات قدیمی مدیریت پروژه‌ی خود را از جمله گزارش‌های پیشرفت ماهانه کنار بگذارید؟
– آیا آماده‌ی سرمایه‌گذاری در آموزش مجموعه‌ی مدیریت پروژه‌ی خود برای استفاده از این فناوری‌های جدید هستید؟
– آیا آنها نیز تمایل دارند از مناطق سنّتی آسایش خود خارج شوند و نحوه‌ی مدیریت پروژه‌های خود را به طور اساسی تغییر دهند؟
– آیا سازمان شما آماده‌ی پذیرش و به‌کارگیری یک فناوری جدید و واگذاری کنترل تصمیمات به مراتب مهم‌تر به آن است؟
– آیا حاضر هستید اجازه دهید که این فناوری مرتکب اشتباه نیز بشود تا یاد بگیرد که برای سازمان شما چگونه عملکرد بهتری داشته باشد؟
– آیا حامی اجرایی در این پروژه، توانایی و اعتبار لازم در سازمان شما را دارد تا رهبری این تحوّل را در دست بگیرد؟
– آیا رهبران ارشد مایل هستند چندین ماه تا یک سال، منتظر بمانند تا مزایای خودکارسازی را مشاهده نمایند؟

اگر پاسخ به همه‌ی این سوالات مثبت است، پس شما آماده‌ی شروع این تحوّل پیشگام هستید. اگر یک یا چند پاسخ «نه» دارید، باید قبل از حرکت آنها را به سمت «بله» سوق دهید.

•••

همانطور که دیدیم، استفاده از هوش مصنوعی در مدیریت پروژه‌ها مزایای قابل توجهی را به همراه خواهد داشت، نه تنها در خودکارسازی وظایف اداری و کم‌ارزش، بلکه مهمتر از آن، هوش مصنوعی و سایر فناوری‌های مخرّب در جعبه‌ی ابزار شما از جمله به سازمان شما کمک می‌کنند رهبران و مدیران پروژه، پروژه‌ها را با موفقیت بیشتری انتخاب، تعریف و اجرا نمایند.

مدیر عامل داستان ما زمانی در موقعیتی قرار داشت که شما امروز در آن قرار گرفته‌اید. ما شما را تشویق می‌کنیم که از هم‌اکنون اولین گام‌ها را به سمت این چشم‌انداز مثبت از آینده‌ی مدیریت پروژه بردارید.

 

درباره‌ی نگارندگان

آنتونیو نیتو رودریگز (Antonio Nieto-Rodriguez) نویسنده‌ی کتاب راهنمای مدیریت پروژه هاروارد بیزینس ریویو (Harvard Business Review) ، مقاله‌ی زمان اقتصاد پروژه رسیده است HBR (The Project Economy Has Arrived) و پنج کتاب دیگر است. تحقیقات و تاثیرات جهانی آثار او بر مدیریت مدرن توسط تینکرز۵۰ (Thinkers50) به رسمیت شناخته شده‌اند. آنتونیو پیش‌رو در آموزش و مشاوره‌ی هنر و علم پیاده‌سازی راهبردها و مدیریت مدرن پروژه‌ها به مدیران اجرایی، استاد مدعو در هفت مدرسه‌ی تجاری پیش‌رو است. او بنیان‌گذار پراجکتس‌اَندکو (Projects&Co) و مؤسّسه‌ی پیاده‌سازی راهبردها (Strategy Implementation Institute) است. می‌توانید آنتونیو را از طریق تارنمای او، خبرنامه‌ی لینکدین او با عنوان پروژه‌ها را با موفقیت رهبری کنید (Lead Projects Successfully) و دوره‌ی آنلاین او بازاختراع مدیریت پروژه برای مدیران غیر پروژه‌ای (Project Management Reinvented for Non–Project Managers) دنبال نمایید.

دکتر ریکاردو ویانا وارگاس (Ricardo Viana Vargas)، بنیان‌گذار و مدیر عامل ماکروسُلوشنز (Macrosolutions)، یک شرکت مشاوره‌ی بین‌المللی در حوزه‌ی انرژی، زیرساخت، فناوری اطلاعات، نفت و امور مالی است. او بیش از ۲۰ میلیارد دلار پروژه‌های بین‌المللی را در 25 سال گذشته مدیریت کرده است. ریکاردو، برایت‌لاین اینشیتیو (Brightline Initiative) را از سال ۲۰۱۶تا ۲۰۲۰ایجاد و رهبری کرد و مدیر زیرساخت‌‌ها و تیم مدیریت پروژه‌ها در سازمان ملل متحد بود و بیش از 1000 پروژه بشردوستانه و توسعه‌ای را رهبری کرد. او ۱۶ کتاب در این زمینه نوشته‌است و میزبان «پادکست ۵ دقیقه‌ای» است که تا کنون به آمار ۱۲ میلیون بازدید رسیده‌است.

منتشر شده در وب‌سایت Harvard Business Review
برگردان توسط حامد معین‌فر
در شرکت مهندسین فناور پندار آریا – پنداریا

آیا شما نیز در پروژه‌های هوش مصنوعی خود مرتکب این اشتباهات مرگبار می‌شوید؟

عنوان اصلی مقاله: ?Are You Making These Deadly Mistakes With Your AI Projects
تاریخ انتشار و نویسنده: By Kathleen Walch – Aug 20, 2022
وب‌سایت منتشر کننده: Forbes
 لینک اصلی مقاله

از آنجا که در قلب هوش مصنوعی (AI) داده‌ها قرار گرفته‌اند، جای تعجب نیست که سامانه‌های هوش مصنوعی (AI) و یادگیری ماشینی (ML) برای «یادگیری»، نیازمند داده‌های با کیفیت و با مقدار کافی باشند. به طور کلّی، به حجم زیادی از داده‌های با کیفیت خوب، به‌ویژه برای رویکردهای «یادگیری با نظارت (Supervised learning)» نیاز است تا بتوان سامانه‌ی AI یا ML را به صورت صحیح آموزش داد. ممکن است مقدار دقیق داده‌ای که مورد نیاز است، بسته به الگوی هوش مصنوعی که پیاده‌سازی می‌کنید، الگوریتمی که استفاده می‌کنید و عوامل دیگری از جمله داده‌های داخلی در مقابل داده‌های بیرونی، متفاوت باشد. به عنوان مثال، شبکه‌های عصبی (Neural networks) به داده‌های زیادی برای آموزش‌یافتن نیاز دارند، در حالی که درخت‌های تصمیم (Decision trees) یا طبقه‌بندی‌کننده‌های بِیز (Bayesian classifiers) به داده‌های زیادی برای تولید نتایج با کیفیت بالا نیاز ندارند.

خُب، پس حالا ممکن است تصوّر کنید که هر چه حجم داده‌ها بیشتر بهتر، درست است؟ خیر، اشتباه فکر کرده‌اید. سازمان‌هایی با داده‌های بسیار زیاد، حتی در حدّ اِگزابایت، اکنون متوجه شده‌اند که بر خلاف انتظارشان حجم داده‌ی بیشتر راه‌حل مسأله‌ی آن‌ها نبوده است. در واقع، داده‌های بیشتر یعنی مشکلات بیشتر. هر چه قدر داده‌های بیشتری در اختیار داشته باشید، به همان میزان نیاز دارید تا داده‌های بیشتری را تمیز و آماده‌سازی کنید، داده‌های بیشتری را برچسب‌گذاری و مدیریت کنید، داده‌های بیشتری را ایمن‌سازی، محافظت و سوگیری‌زدایی کنید، و حتی موارد دیگر. به محض اینکه شما شروع به چند برابر کردن حجم داده‌ها نمایید، یک پروژه‌ی کوچک به سرعت تبدیل به پروژه‌ی بسیار بزرگ می‌شود. در واقع در بسیاری از اوقات، داده‌های زیاد پروژه‌ها را از بین می‌برند.

به وضوح، حلقه‌ی مفقوده از شناسایی یک مسأله‌ی تجاری تا جمع‌کردن داده‌ها برای حل آن مسأله، این است که تعیین کنید به کدام داده‌ها و واقعاً به چه مقدار از آنها نیاز دارید. شما به اندازه‌ی کافی داده نیاز دارید، امّا نه بیش از حدّ آن. چنانچه با برداشت از یک داستان کودکانه به آن «داده‌های دختر موطلایی (Goldilocks)» اطلاق می‌کنند: نه خیلی زیاد، نه خیلی کم، بلکه به اندازه. متأسفانه در اغلب موارد، سازمان‌ها بدون پرداختن به موضوع «درک اطلاعات»، وارد پروژه‌های هوش مصنوعی می‌شوند. پرسش‌هایی که لازم است سازمان‌ها به آنها پاسخ دهند عبارتند از اینکه داده‌ها کجا قرار دارند، چه مقدار از آنها را در اختیار دارند، در چه شرایطی هستند، چه ویژگی‌هایی از آن داده‌ها بیشترین اهمیت را دارند؛ همچنین موضوعاتی چون استفاده از داده‌های داخلی یا خارجی، چالش‌های دسترسی به داده‌ها، نیاز به تقویت داده‌های موجود، و سایر عوامل و سؤالات حیاتی. بدون پاسخ به این پرسش‌ها، پروژه‌های هوش مصنوعی می‌توانند به سرعت نابود شوند.

درک بهتر داده‌ها برای اینکه متوجه شوید به چه مقدار داده نیاز دارید، ابتدا باید درک کنید که داده‌ها چگونه و در کجای ساختار پروژه‌های هوش مصنوعی قرار می‌گیرند. یک روش بصری برای درک سطوح ارزش فزاینده‌ای که از داده‌ها به دست می‌آوریم، «هرم دانش» (DIKUW و یا به قولی دیگر DIKW) است که نشان می‌دهد چگونه بنیادی از داده‌ها، به ایجاد ارزش بیشتر در لایه‌های «اطلاعات»، «دانش»، «درک» و «خِرَد» کمک می‌کند.

هرم دانش DIKW (داده-اطلاعات-دانش-خِرَد) – ویکیپدیا      هرم دانش DIKUW (داده-اطلاعات-دانش-درک-خِرَد) – فوربس

با یک بنیاد محکم از داده‌ها، می‌توانید در لایه‌ی بعدی یعنی اطلاعات، بینش مضاعفی به دست آورید که به شما کمک می‌کند به سؤالات ابتدایی در مورد آن داده‌ها پاسخ دهید. زمانی که یک سری ارتباطات اوّلیه بین داده‌ها ایجاد نمودید تا بینش اطلاعاتی به دست آورید، آنگاه می‌توانید الگوهایی در آن اطلاعات بیابید که شما را قادر می‌سازد تا درک کنید که چگونه قطعات مختلف آن اطلاعات برای به دست‌آوردن بینش بیشتر به یکدیگر متصل شده‌اند. با بنا نهادن بر روی لایه‌ی دانش، سازمان‌ها قادر هستند ارزش حتی بیشتری از درک اینکه چرا آن الگوها اتفاق می‌افتند به دست آورند و درک درستی از الگوهای زیربنایی ارائه دهند. در نهایت، لایه‌ی خِرَد جایی است که می‌توانید با ارائه‌ی بینش در مورد علت و معلول تصمیم‌گیری‌های اطلاعاتی، بیشترین ارزش را از اطلاعات در آن کسب نمایید.

این آخرین موجی که از هوش مصنوعی به راه افتاده‌است، بیشتر بر روی لایه‌ی دانش متمرکز است، چرا که هدف یادگیری ماشینی ارائه‌ی بینش بر روی لایه‌ی اطلاعات برای شناسایی الگوها می‌باشد. متأسفانه، یادگیری ماشینی در لایه‌ی درک به محدودیت‌های خود نزدیک می‌شود، زیرا یافتن الگوها برای انجام استدلال کافی نیست. ما یادگیری ماشینی داریم، نه اما «استدلال ماشینی» لازم برای درک اینکه چرا الگوها اتفاق می‌افتند. این محدودیت را می‌توانید در عمل، زمانی که با یک «رُبات گفتگو» تعامل می‌کنید تجربه نمایید. در حالی که پردازش‌گرهای زبان‌های طبیعی (NLP) که با یادگیری ماشینی توانمندسازی شده‌اند در درک گفتار و هدف شما واقعاً خوب عمل می‌کنند، اما در درک‌کردن و استدلال‌کردن با محدودیت‌هایی مواجه هستند. برای مثال، اگر از یک دستیار صوتی بپرسید که آیا باید فردا بارانی بپوشید، متوجه نمی‌شود که از آب و هوا سؤال کرده‌اید. این یک انسان است که باید این بینش را در اختیار ماشین قرار دهد، چرا که دستیار صوتی نمی‌داند باران واقعاً چیست.

جلوگیری از شکست با حفظ آگاهی نسبت به داده‌ها

تجربه‌ی کلان‌داده‌ها (Big data) به ما آموخته است که چگونه با مقادیر زیادی از داده روبرو شویم. نه تنها اینکه چگونه آنها را ذخیره کنیم، بلکه چگونه تمام آن داده‌ها را پردازش، دستکاری و تجزیه و تحلیل کنیم. یادگیری ماشینی با توانایی کار با طیف گسترده‌ای از انواع مختلف داده‌های بدون ساختار، نیمه ساختاریافته و یا ساختاریافته‌ی جمع‌آوری‌شده توسط سازمان‌ها، ارزش بیشتری را برای ما به همراه داشته‌است. اتفاقاً، این آخرین موج AI در حقیقت یک موج تحلیلی مبتنی بر داده‌های بزرگ است.

اما دقیقاً به همین دلیل است که برخی از سازمان‌ها با این شدت در هوش مصنوعی شکست می‌خورند. به جای آنکه پروژه‌های هوش مصنوعی خود را با یک دیدگاه داده‌محور اجرا کنند، آنها بر جنبه‌های عملکردی آن تمرکز می‌کنند. سازمان‌ها برای در دست گرفتن مدیریت پروژه‌های هوش مصنوعی و اجتناب از اشتباهات مرگبار، نه تنها به درک بهتری از هوش مصنوعی و یادگیری ماشینی نیاز دارند، بلکه باید به «V»های کلان‌داده نیز توجه داشته‌باشند. این که چقدر داده در اختیار دارید به تنهایی اهمیت ندارد، بلکه ماهیت آن داده‌ها نیز مهم است. برخی از آن «V»های کلان‌داده عبارتند از:

  • حجم (Volume): آن مقدار و حجمی از کلان‌داده‌ها که در اختیار دارید.
  • سرعت (Velocity): آن سرعتی که کلان‌داده‌های شما در حال تغییر هستند. به‌کار بستن موفقیت‌آمیز هوش مصنوعی به معنای به‌کار بستن AI برای داده‌های با سرعت بالا است.
  • تنوّع (Variety): ممکن است داده‌ها در قالب‌های مختلفی از جمله داده‌های ساختاریافته مانند پایگاه‌های داده، داده‌های نیمه ساختاریافته مانند صورت‌حساب‌های فروش، و داده‌های بدون ساختار مانند ایمیل‌ها، فایل‌های تصویری و ویدئویی قرار گرفته باشند. سامانه‌های هوش مصنوعی موفق قادر هستند با این سطح از تنوّع داده‌ها سر و کار داشته باشند.
  • درستی (Veracity): این به کیفیت و دقت داده‌های شما و میزان اعتمادی که شما به داده‌هایتان دارید، اشاره می‌کند. زباله تحویل دهید، زباله تحویل می‌گیرید؛ به‌ویژه در سامانه‌های هوش مصنوعی مبتنی بر داده. به این ترتیب، سامانه‌های هوش مصنوعی موفق باید قادر باشند با تنوّع بالایی از کیفیت داده‌ها سر و کار داشته باشند.

با دهه‌ها تجربه در مدیریت پروژه‌های کلان‌داده، سازمان‌هایی که در هوش مصنوعی موفق هستند، در درجه‌ی اوّل در پروژه‌های کلان‌داده موفق بوده‌اند. آنهایی که در حال مشاهده‌ی نابودی پروژه‌های هوش مصنوعی خود هستند، کسانی هستند که به مسائل هوش مصنوعی خود با ذهنیت توسعه‌ی برنامه‌های کاربردی پرداخته‌اند.

مقدار زیاد داده‌های نادرست و کافی‌نبودن داده‌های صحیح، در حال نابودی پروژه‌های هوش مصنوعی هستند

در حالی که پروژه‌های هوش مصنوعی درست آغاز می‌شوند، فقدان داده‌های لازم و فقدان درک و سپس فقدان حل مسائل واقعی، پروژه‌های هوش مصنوعی را با نابودی مواجه ساخته‌است. سازمان‌ها همچنان در حال پیش‌روی بدون داشتن درک واقعی از داده‌های مورد نیاز خود و کیفیت آن داده‌ها هستند؛ این موضوع چالش‌های واقعی ایجاد کرده‌است.

یکی از دلایلی که سازمان‌ها این اشتباهات را در خصوص داده‌های خود مرتکب می‌شوند این است که برای انجام پروژه‌های هوش مصنوعی از هیچ رویکرد واقعی به غیر از روش‌های چابک (Agile) یا توسعه‌ی برنامه‌های کاربردی استفاده نمی‌کنند. با این حال، سازمان‌های موفق دریافته‌اند که بهره‌گیری از رویکردهای داده‌محورِ متمرکز بر درک داده‌ها را به‌عنوان یکی از اوّلین مراحل در رویکردهایشان در پروژه قرار دهند. روش‌شناسی CRISP-DM (فرایند استاندارد بین صنایع برای داده‌کاوی)، که بیش از دو دهه است که وجود دارد، درک داده‌ها را به عنوان اولین کاری که باید پس از تعیین نیازهای کسب‌وکار خود انجام دهید، مشخص می‌کند. با پایه قرار دادن روش CRISP-DM و افزودن روش‌های چابک به آن، روش‌شناسی مدیریت شناختی پروژه‌ها برای هوش مصنوعی (CPMAI)، درک داده‌ها در فاز دوی پیاده‌سازی را الزامی می‌داند. سایر رویکردهای موفق نیز به درک اطلاعات در اوایل پروژه تأکید دارند، زیرا بالاخره هر چه که باشد، پروژه‌های هوش مصنوعی پروژه‌های مبتنی بر داده‌ها هستند. و شما چگونه قادر خواهید بود یک پروژه‌ی موفق مبتنی بر داده‌ها را بنا بگذارید، بدون آنکه پروژه‌ی خود را با درک صحیح از داده‌ها اجرا نموده باشید؟ این قطعاً یک اشتباه مرگبار است که باید از آن اجتناب نمایید.

 

کاتلین والش یک شریک مدیریتی و تحلیل‌گر اصلی در شرکت تحقیق و مشاوره‌ی متمرکز بر هوش مصنوعی کاگنلیتکا (Cognilytica)، می‌باشد که بر کاربرد و استفاده از هوش مصنوعی (AI) در دو بخش عمومی و خصوصی متمرکز است. او همچنین میزبان پادکست محبوب AI Today بوده که یک پادکست برتر مرتبط با هوش مصنوعی است و موارد مختلف استفاده از هوش مصنوعی را برای دو بخش عمومی و خصوصی برجسته کرده و همچنین با کارشناسان مهمان در مورد موضوعات مرتبط با هوش مصنوعی مصاحبه می‌کند.


منتشر شده در وب‌سایت Forbes
برگردان توسط حامد معین‌فر
در شرکت مهندسین فناور پندار آریا – پنداریا