به گزارش پایگاه تخصصی و خبری تحلیلی
عصر گمرک، امروزه، تقریباً هر شرکتی - حتی شرکتهایی با تیمهای بزرگی از دانشمندان و مهندسان داده پیچیده - میتوانند با مدلهای یادگیری ماشینی (ML) که در دنیای واقعی به طرز شگفتانگیزی شکست میخورند، به کار خود ادامه دهند.
خواه مدلهای پیشبینی تقاضا باشد که توسط اقتصاد کووید اصلاح شدهاند یا مدلهایی که نرمافزار منابع انسانی را تقویت میکنند که بهطور ناخواسته علیه جویندگان کار بالقوه تبعیض قائل میشوند، مشکلات مدلها رایج هستند و در صورت عدم نظارت و تشخیص زودهنگام خطرناک هستند.
با درک این واقعیت، تعداد فزاینده ای از شرکت ها – از آلفابت و آمازون گرفته تا بانک آمریکا، اینتل، متا و مایکروسافت – بی سر و صدا استفاده خود از هوش مصنوعی (یا مقررات بالقوه آن) را به عنوان عامل خطر در آخرین گزارش های مالی سالانه خود افشا می کنند.
علیرغم خطرات، بیشتر شرکت ها با اطمینان در حال پیشرفت هستند. امروزه، تقریباً هر صنعتی برای افزایش سودآوری، بهرهوری و حتی نجات جان انسانها، به سیستمهای مجهز به یادگیری ماشینی متکی است. در مجموع پیش بینی می شود هزینههای شرکتهای جهانی برای هوش مصنوعی تا سال ۲۰۲۵ به ۲۰۴ میلیارد دلار خواهد رسید.
بنابراین چگونه شرکت ها می توانند قدرت فوق العاده و خطر بالقوه هوش مصنوعی را متعادل کنند و نتایج مثبت را برای مشتریان و جامعه در کل به حداکثر برسانند؟
در اینجا پنج راه حل ارائه می شود که هر شرکتی می تواند برای اطمینان از پایداری ابتکارات هوش مصنوعی به آن ها توجه کند.
۱.تیم هایی که
هوش مصنوعی را ایجاد و به کار می گیرند - و مجموعه داده های مورد استفاده برای آموزش مدل ها - باید نماینده تنوع مشتریان و جامعه در کل باشد. در دنیای هوش مصنوعی و یادگیری ماشینی، دادهها و مدلها گاهی اوقات میتوانند حقایق سخت تجربه زندگی یک فرد را پنهان کنند. از آنجایی که مدلهای یادگیری ماشینی بر اساس دادههای تاریخی آموزش دیدهاند، میتوانند هرگونه تبعیض یا ساختار قدرت نابرابر موجود در آن دادههای تاریخی را تقویت کنند.تنها راه حل واقعی برای این مشکل، تنوع مشتریان و جامعه در کل است.
۲.همانطور که سازمان ها حریم خصوصی را مدیریت میکنند، شرکتها باید یک چارچوب مدون اخلاقی و مدیریت ریسک برای هوش مصنوعی ایجاد کنند. رویکرد مبتنی بر فناوری به تنهایی نمیتواند هر خطری را کاهش دهد یا هوش مصنوعی را از نظر اخلاقی مسئول کند. پاسخ باید شامل پیادهسازی سیستمهایی باشد که ریسکهای اخلاقی و سازمانی را در سراسر شرکت، از فناوری اطلاعات تا منابع انسانی، بازاریابی تا محصول و فراتر از آن، شناسایی میکند و افراد را تشویق میکند تا بر اساس آنها عمل کنند. در حالی که فناوری اغلب پیش نیاز ضروری برای نشان دادن مشکلات صحیح است، کارکنان باید برای عمل بر روی این بینشها توانمند شوند.
۳. شرکتها باید اطمینان حاصل کنند که یک خطمشی داده مدرن دارند که به متخصصان هوش مصنوعی اجازه می دهند در صورت نیاز به دادههای محافظتشده دسترسی داشته باشند. دانشمندان داده و مهندسان یادگیری ماشینی نمی توانند آنچه را که نمی بینند درست کنند.
حرکت به سمت چارچوب هوش مصنوعی مسئول به معنای مدرن کردن سیاستها در مورد دسترسی به دادهها و در برخی موارد گسترش مجوزها بر اساس نقش است. بیشتر شرکتها در توسعه نرمافزار در این امر مهارت دارند - جایی که دسترسی به سیستمهای تولید به شدت مدیریت میشود - اما تعداد کمتری از آنها دارای نظارت دقیق در مورد دسترسی به دادههای مشتری در یادگیری ماشین هستند.
۴.باید بر انتقال هوش مصنوعی نظارت وجود داشته باشد. نیاز به ابزارهای بهتر برای نظارت و عیبیابی عملکرد مدل یادگیری ماشینی در دنیای واقعی - و کمک به تیمها برای رفع مشکلات قبل از تأثیرگذاری بر نتایج تجاری - واضح است. حتی پیچیدهترین تیمهای علم داده همچنان اشکالاتی را کشف میکنند که در عملکرد مدل پنهان میشوند.
پنج سال پیش تنها شرکتهایی که دارای منابع کافی بودند، نیروی انسانی لازم برای ساخت این ابزارها را در داخل داشتند. امروزه، یک اکوسیستم به سرعت در حال بلوغ وجود دارد تا حتی به تیمهای ضعیف کمک کند تا مدلها را بهتر اعتبارسنجی و نظارت کنند، زیرا با مشکلاتی در تولید مواجه میشوند.
۵.با توجه به اهمیت فزاینده هوش مصنوعی برای عملیات حیاتی کسب و کار، تیمهای فنی که مدلهای یادگیری ماشینی را به کار میگیرند و همتایان اجرایی آنها باید در یک راستا حرکت کنند.
بسیاری از ابزارهای مدرن زمانی که به درستی پیکربندی شوند می توانند به تیم های فنی و اجرایی خدمت کنند. در صنایع به شدت تحت نظارت مانند امور مالی، شفافیت مدل یادگیری ماشینی توسط قانون الزامی است، اما واقعیت این است که هر صنعتی باید بتواند به درون خود نگاه کند و بفهمد که چرا یک مدل پیش بینی خاصی را انجام داده است.
با سرمایهگذاری برای دستیابی به توضیحپذیری مدل و به طور جدیتر، انجام تجزیه و تحلیل علت ریشهای در صورت شکست یک مدل، تیمهای یادگیری ماشینی میتوانند به مدیران کمک کنند تا سیستمهای هوش مصنوعی را بهتر درک کنند و از اهداف حکومتداری گستردهتر اطمینان حاصل کنند.
از آنجایی که شرکتها خلق ارزش پایدار را در اولویت قرار میدهند، زمان آن فرا رسیده است که هوش مصنوعی به بخش بزرگتری از گفتگو و بجث تبدیل شود. با انجام چند قدم ساده، سازمانها میتوانند مسیر طولانی و پایداری را در دستیابی به ابتکارات هوش مصنوعی انعطافپذیر که به نفع همه ذینفعان است، پیش ببرند.
انتهای پیام/.