زیرساخت‌های یادگیری ماشینی با کارایی بالا و کم‌هزینه، نوآوری را در فضای ابری پیش می‌برد

[ad_1]

هوش مصنوعی و یادگیری ماشین (AI و ML) فناوری‌های کلیدی هستند که به سازمان‌ها کمک می‌کنند تا راه‌های جدیدی برای افزایش فروش، کاهش هزینه‌ها، ساده‌سازی فرآیندهای کسب‌وکار و درک بهتر مشتریان خود ایجاد کنند. AWS با ارائه محاسبات قدرتمند، شبکه‌های پرسرعت و گزینه‌های ذخیره‌سازی با کارایی بالا مقیاس‌پذیر برای مطابقت با خواسته‌های هر پروژه یادگیری ماشینی، به تسریع وابستگی‌های AI/ML خود کمک می‌کند. این مانع دسترسی سازمان‌هایی را کاهش می‌دهد که به دنبال استفاده از ابر برای مقیاس‌بندی برنامه‌های ML خود هستند.

توسعه دهندگان و دانشمندان داده از مرزهای فناوری عبور می کنند و یادگیری عمیق را اتخاذ می کنند، شکلی از یادگیری ماشینی مبتنی بر الگوریتم های شبکه عصبی. این مدل‌های یادگیری عمیق بزرگ‌تر و پیچیده‌تر هستند و هزینه اجرای زیرساخت‌های اساسی برای آموزش و استقرار این مدل‌ها را افزایش می‌دهند.

برای کمک به مشتریان در سرعت بخشیدن به تبدیل AI/ML خود، AWS در حال توسعه تراشه های یادگیری ماشینی با کارایی بالا و کم هزینه است. AWS Inferentia اولین تراشه یادگیری ماشینی است که توسط AWS برای پیش‌بینی کمترین هزینه یادگیری ماشین در فضای ابری توسعه یافته است. در واقع، نمونه‌های آمازون EC2 Inf1، که توسط Inferentia ارائه می‌شوند، 2.3 برابر عملکرد بالاتر و 70 درصد هزینه کمتر برای تخمین‌های یادگیری ماشین نسبت به نمونه‌های EC2 مبتنی بر GPU نسل فعلی ارائه می‌دهند. AWS Trainium دومین تراشه یادگیری ماشینی AWS است که برای آموزش مدل‌های یادگیری عمیق طراحی شده است و در اواخر سال 2021 در دسترس خواهد بود.

مشتریان در سراسر صنعت برنامه های کاربردی ML خود را در محصول Infernia به کار گرفته اند و شاهد بهبود عملکرد و کاهش هزینه قابل توجهی بوده اند. به عنوان مثال، پلت فرم پشتیبانی مشتری AirBnB یک تجربه خدماتی هوشمند، مقیاس‌پذیر و استثنایی را برای میلیون‌ها جامعه میزبان و مهمان در سراسر جهان ممکن می‌سازد. از نمونه‌های EC2 Inf1 مبتنی بر Inferentia برای استقرار مدل‌های پردازش زبان طبیعی (NLP) استفاده می‌کند که از چت‌بات‌های آن پشتیبانی می‌کنند. این امر منجر به عملکرد 2 برابر بهتر از نمونه های مبتنی بر GPU می شود.

با این نوآوری‌ها در سیلیکون، AWS مشتریان را قادر می‌سازد تا به راحتی محصول مدل یادگیری عمیق خود را با راندمان بالا و هزینه بسیار کمتر پیاده‌سازی کنند.

یادگیری ماشین تغییر سرعت در زیرساخت های مبتنی بر ابر را به چالش می کشد

یادگیری ماشینی فرآیندی تکراری است که به تیم‌ها نیاز دارد تا به سرعت برنامه‌ها را بسازند، آموزش دهند، و برنامه‌ها را بکار ببرند، و همچنین به طور مکرر آموزش دهند، بازآموزی کنند و آزمایش کنند تا دقت پیش‌بینی مدل‌ها را افزایش دهند. سازمان‌ها در حین استقرار مدل‌های آموزش‌دیده در برنامه‌های تجاری خود، باید برنامه‌های خود را نیز اندازه‌گیری کنند تا به کاربران جدید در سراسر جهان خدمت کنند. برای اطمینان از بهترین تجربه کاربر، آنها باید بتوانند چندین درخواست را به طور همزمان با تأخیر در زمان واقعی مدیریت کنند.

موارد استفاده نوظهور مانند تشخیص اشیا، پردازش زبان طبیعی (NLP)، طبقه بندی تصویر، هوش مصنوعی محاوره ای و داده های سری زمانی به فناوری یادگیری عمیق متکی هستند. اندازه و پیچیدگی مدل های یادگیری عمیق به سرعت در حال افزایش است و طی چند سال از میلیون ها پارامتر به میلیاردها می رسد.

آموزش و استقرار این مدل های پیچیده و پیچیده به هزینه های زیرساختی قابل توجهی تبدیل می شود. از آنجایی که سازمان‌ها برنامه‌های کاربردی خود را برای ارائه نزدیک‌ترین تجربه در زمان واقعی به کاربران و مشتریان خود مقیاس می‌دهند، هزینه‌ها به سرعت می‌تواند گلوله برف باشد.

خدمات زیرساخت یادگیری ماشین مبتنی بر ابر می تواند در اینجا کمک کند. رایانه‌های ابری دسترسی بر اساس تقاضا به شبکه‌های با کارایی بالا و ذخیره‌سازی داده‌های بزرگ را فراهم می‌کنند که به‌طور یکپارچه با عملیات ML و خدمات هوش مصنوعی پیشرفته یکپارچه شده است، و سازمان‌ها را قادر می‌سازد تا به سرعت فعالیت‌های AI/ML خود را راه‌اندازی و مقیاس‌بندی کنند.

چگونه AWS به مشتریان کمک می کند تا تبدیل های AI / ML خود را تسریع کنند

هدف AWS Inferentia و AWS Trainium دموکراتیک کردن یادگیری ماشین و در دسترس ساختن آن برای توسعه دهندگان، صرف نظر از تجربه یا اندازه سازمان است. طراحی Inferentia برای عملکرد بالا، توان عملیاتی و تأخیر کم بهینه شده است و آن را برای استقرار در مقیاس تخمین ML ایده آل می کند.

هر تراشه AWS Infransia شامل چهار هسته عصبی است که یک موتور ضرب ماتریس آرایه سیستولیک با کارایی بالا را کار می‌کند، که عملیات یادگیری عمیق معمولی مانند Convolution و Transformer را سرعت می‌بخشد. NeuronCores به یک کش بزرگ روی تراشه مجهز شده است که به کاهش دسترسی به حافظه خارجی، کاهش تاخیر و افزایش توان کمک می کند.

AWS از فریم ورک های پایه ML مانند Neuron، کیت توسعه نرم افزار برای Inferentia، TensorFlow و PyTorch پشتیبانی می کند. توسعه دهندگان می توانند به استفاده از چارچوب و ابزارهای توسعه چرخه حیاتی که می شناسند و دوست دارند ادامه دهند. برای اکثر مدل های آموزش دیده خود، آنها می توانند بدون نیاز به تغییر کد برنامه اضافی، یک خط کد را در استنتاج کامپایل و تغییر دهند.

نتیجه یک استقرار تخمینی با راندمان بالا است که به راحتی می توان آن را در حین کنترل هزینه ها محاسبه کرد.

Sprinklr، یک شرکت نرم‌افزار به‌عنوان سرویس، یک پلت‌فرم مدیریت تجربه مشتری یکپارچه مبتنی بر هوش مصنوعی است که شرکت‌ها را قادر می‌سازد تا بازخورد مشتری را در زمان واقعی در چندین کانال جمع‌آوری کنند و بینش‌های عملی را ترجمه کنند. این منجر به حل و فصل مشکلات پیشگیرانه، توسعه محصول پیشرفته، بازاریابی محتوا و خدمات بهتر به مشتریان می شود. Sprinklr از Inferentia برای استقرار NLP و برخی از مدل‌های بینایی کامپیوتری خود استفاده کرد و شاهد بهبود عملکرد قابل توجهی بود.

بسیاری از سرویس های آمازون نیز مدل های یادگیری ماشینی خود را بر روی Inferentia مستقر می کنند.

آمازون از مدل Computer Vision ML برای تجزیه و تحلیل کیفیت ویدیوی رویدادهای زنده Prime Video استفاده می کند تا از تجربه مشاهده مطلوب برای اعضای Prime Video اطمینان حاصل کند. او مدل‌های ML طبقه‌بندی تصویر خود را بر روی نمونه‌های EC2 Inf1 و بهبود 4 برابری در عملکرد و تا 40 درصد کاهش هزینه در مقایسه با نمونه‌های مبتنی بر GPU به کار برد.

مثال دیگر هوش مبتنی بر هوش مصنوعی و ML آمازون الکسا است که توسط خدمات وب آمازون پشتیبانی می شود که امروزه در بیش از 100 میلیون دستگاه در دسترس است. الکسا به مشتریان قول می دهد که همیشه باهوش تر، گفتگوی بیشتر، فعال تر و لذت بخش تر خواهد بود. برای تحقق این وعده، زمان پاسخگویی و هزینه زیرساخت یادگیری ماشین باید دائما بهبود یابد. با استقرار مدل‌های متن به گفتار ML الکسا در نمونه‌های Inf1، توانست تاخیرهای تخمینی را تا ۲۵ درصد و هزینه به ازای برآورد را تا ۳۰ درصد کاهش دهد تا تجربه خدمات را برای میلیون‌ها مشتری الکسا در هر ماه افزایش دهد.

ارائه قابلیت‌های یادگیری ماشینی جدید در فضای ابری

از آنجایی که شرکت‌ها برای آینده کسب‌وکار خود با فعال کردن بهترین محصولات و خدمات دیجیتال رقابت می‌کنند، هیچ سازمانی نمی‌تواند از استقرار پیشرفته‌ترین مدل‌های یادگیری ماشینی برای کمک به آنها برای نوآوری در تجربیات مشتری خودداری کند. در طول چند سال گذشته، افزایش زیادی در کاربرد یادگیری ماشین برای موارد استفاده مختلف، از شخصی‌سازی و تخمین‌ها تا کشف تقلب و تخمین‌های زنجیره تامین وجود داشته است.

خوشبختانه، زیرساخت یادگیری ماشین در فضای ابری قابلیت‌های جدیدی را ارائه می‌کند که قبلاً امکان‌پذیر نبود، و آن را برای پزشکان غیرمتخصص بیشتر در دسترس قرار می‌دهد. به همین دلیل است که مشتریان AWS در حال حاضر از نمونه‌های آمازون EC2 Inf1 مبتنی بر Inferentia استفاده می‌کنند تا اطلاعاتی در مورد موتور توصیه‌های خود و ربات‌های چت ارائه دهند و بینش‌های عملی را از بازخورد مشتریان به دست آورند.

با گزینه های زیرساخت یادگیری ماشین مبتنی بر ابر AWS مناسب برای سطوح مختلف مهارت، واضح است که هر سازمانی می تواند نوآوری را تسریع کند و کل چرخه زندگی یادگیری ماشین را تا حد زیادی تطبیق دهد. با گسترش گسترده‌تر یادگیری ماشینی، سازمان‌ها اکنون می‌توانند تجربه مشتری و روش انجام تجارت خود را با یک زیرساخت یادگیری ماشینی مبتنی بر ابر مقرون‌به‌صرفه و با کارایی بالا به‌طور اساسی تغییر دهند.

درباره اینکه چگونه پلت فرم یادگیری ماشینی AWS می تواند به شرکت شما در نوآوری کمک کند بیشتر بیاموزید.

این محتوا توسط AWS ایجاد شده است. این توسط تحریریه MIT Technology Review نوشته نشده است.

[ad_2]

Elyse Blake

کاوشگر هیپستر پسند. گورو بیکن دوستانه. زامبی متعصب حرفه ای. نویسنده.

تماس با ما