زیرساخت‌های یادگیری ماشینی با کارایی بالا و عملکرد پایین، نوآوری را در فضای ابری تسریع می‌کنند


هوش مصنوعی و یادگیری ماشین (AI و ML) فناوری‌های کلیدی هستند که به سازمان‌ها کمک می‌کنند تا راه‌های جدیدی برای افزایش فروش، کاهش هزینه‌ها، سرعت بخشیدن به فرآیندهای تجاری و درک بهتر مشتریان ایجاد کنند. AWS به مشتریان کمک می‌کند تا با ارائه محاسبات قدرتمند، شبکه‌های پرسرعت و گزینه‌های ذخیره‌سازی با کارایی بالا مقیاس‌پذیر، در صورت تمایل برای هر پروژه یادگیری ماشین، پذیرش AI/ML را تسریع کنند. این کار باعث کاهش دردسر ثبت نام برای سازمان هایی می شود که می خواهند از ابر برای اندازه برنامه های ML استفاده کنند.

توسعه دهندگان و دانشمندان داده مرزهای فناوری و یادگیری عمیق را به طور فزاینده ای در پیش می گیرند، که نوعی یادگیری ماشینی مبتنی بر الگوریتم های شبکه عصبی است. این مدل یادگیری عمیق بزرگ‌تر و پیچیده‌تر است که منجر به افزایش هزینه‌ها برای اجرای زیرساخت‌های اساسی برای آموزش و استقرار مدل می‌شود.

برای اینکه مشتریان بتوانند تحول AI/ML خود را تسریع بخشند، AWS در حال ایجاد تراشه های یادگیری ماشینی با کارایی بالا و کم هزینه است. AWS Inferentia اولین تراشه یادگیری ماشینی است که از ابتدا توسط AWS برای ارزان‌ترین استنتاج یادگیری ماشین در فضای ابری ساخته شده است. در واقع، نمونه آمازون EC2 Inf1 که توسط Inferentia طراحی شده است، 2.3 برابر کارایی بالاتر و هزینه استنتاج یادگیری ماشینی را تا 70 درصد کمتر از نمونه EC2 مبتنی بر GPU نسل فعلی ارائه می دهد. AWS Trainium تراشه شماره دو یادگیری ماشینی AWS است که به طور خاص برای آموزش مدل های یادگیری عمیق طراحی شده است و تا پایان سال 2021 در دسترس خواهد بود.

مشتریان در سراسر صنعت برنامه‌های ML را در تولید Inferentia پیاده‌سازی کرده‌اند و شاهد بهبود عملکرد و کاهش هزینه‌های قابل توجهی هستند. برای مثال، پلتفرم پشتیبانی مشتری AirBnB یک تجربه خدماتی هوشمند، قابل اندازه‌گیری و استثنایی را برای جامعه‌ای متشکل از میلیون‌ها میزبان و مهمان در سراسر جهان ممکن می‌سازد. از مثال EC2 Inf1 مبتنی بر Inferentia برای استقرار یک مدل پردازش زبان طبیعی (NLP) استفاده می‌کند که از ربات‌های گفتگو پشتیبانی می‌کند. این منجر به افزایش 2 برابری عملکرد خارج از جعبه نسبت به نمونه های مبتنی بر GPU می شود.

با این نوآوری‌ها در سیلیکون، AWS به مشتریان اجازه می‌دهد تا مدل‌های یادگیری عمیق را در تولید به راحتی با کارایی و توان عملیاتی بالا با هزینه کمتر آموزش و اجرا کنند.

یادگیری ماشینی سرعت تغییر به زیرساخت های مبتنی بر ابر را به چالش می کشد

یادگیری ماشینی یک فرآیند تکراری است که به تیم‌ها نیاز دارد تا برنامه‌ها را به سرعت بسازند، آموزش دهند، و برنامه‌ها را به‌سرعت اجرا کنند، همچنین آموزش دهند، بازآموزی کنند و مرتباً برای بهبود دقت پیش‌بینی مدل تلاش کنند. هنگام استفاده از مدل آموزش دیده برای برنامه های کاربردی تجاری، سازمان ها همچنین باید برنامه های کاربردی خود را برای خدمت به کاربران جدید در سراسر جهان گسترش دهند. آنها باید بتوانند چندین درخواست را ارائه دهند که با تأخیر بی‌درنگ همراه می‌شوند تا از تجربه کاربری برتر اطمینان حاصل کنند.

موارد استفاده نوظهور مانند تشخیص اشیا، پردازش زبان طبیعی (NLP)، طبقه‌بندی تصویر، هوش مصنوعی محاوره‌ای و داده‌های سری زمانی به فناوری‌های یادگیری عمیق متکی هستند. مدل یادگیری عمیق من به طور تصاعدی از نظر اندازه و پیچیدگی رشد کرده است که از میلیون ها پارامتر تا میلیاردها پارامتر در طول سال ها متغیر است.

آموزش و استفاده از این مدل پیچیده و پیچیده هزینه های زیرساختی قابل توجهی را به همراه دارد. این هزینه می‌تواند به سرعت تبدیل به یک گلوله برفی شود زیرا سازمان‌ها برنامه‌های کاربردی را برای ارائه یک تجربه واقعی برای کاربران و مشتریان گسترش می‌دهند.

اینجاست که خدمات زیرساخت یادگیری ماشین مبتنی بر ابر می‌توانند کمک کنند. ابر دسترسی بر اساس تقاضا به محاسبات، شبکه‌های با کارایی بالا و ذخیره‌سازی داده‌های بزرگ را فراهم می‌کند، که به‌طور یکپارچه با عملیات ML و خدمات هوش مصنوعی سطح بالاتر یکپارچه شده است، بنابراین سازمان‌ها می‌توانند فوراً طرح‌های AI/ML را راه‌اندازی و گسترش دهند.

چگونه AWS به مشتریان کمک می کند تا تحول AI/ML را تسریع کنند

هدف AWS Inferentia و AWS Trainium دموکراتیک کردن یادگیری ماشین و در دسترس ساختن آن برای توسعه دهندگان صرف نظر از تجربه و اندازه سازمانی است. طراحی Inferentia برای کارایی بالا، توان عملیاتی و تأخیر کم بهینه شده است و برای استفاده از استنتاج ML در مقیاس مناسب است.

هر تراشه AWS Inferentia شامل چهار هسته عصبی است که یک موتور ضرب‌کننده ماتریس آرایه سیستولیک با کارایی بالا را پیاده‌سازی می‌کند که عملیات یادگیری عمیق معمولی مانند کانولوشن و ترانسفورماتور را سرعت می‌بخشد. NeuronCores همچنین دارای یک کش بزرگ روی تراشه است که به کاهش دسترسی به حافظه خارجی، کاهش تاخیر و افزایش توان کمک می کند.

AWS Neuron، کیت توسعه نرم‌افزار Inferentia، از چارچوب‌های برتر ML مانند TensorFlow و PyTorch پشتیبانی می‌کند. توسعه دهندگان می توانند به استفاده از چارچوب های توسعه چرخه زندگی و ابزارهایی که می شناسند و دوست دارند ادامه دهند. برای بسیاری از مدل های آموزش دیده، آنها می توانند با تغییر تنها یک خط کد، بدون تغییر کد برنامه اضافی، کامپایل و در Inferentia مستقر شوند.

نتیجه یک اسپرد استنتاجی با کارایی بالا است که می‌تواند به راحتی با حفظ هزینه‌ها مقیاس‌بندی شود.

Sprinklr، یک شرکت نرم‌افزار به‌عنوان یک سرویس، دارای یک پلت‌فرم مدیریت تجربه مشتری مبتنی بر هوش مصنوعی است که به شرکت‌ها اجازه می‌دهد تا بازخوردهای بی‌درنگ مشتری را از کانال‌های متعدد به بینش‌های عملی جمع‌آوری و ترجمه کنند. این منجر به حل مشکلات پیشگیرانه، توسعه محصول بهتر، بازاریابی محتوای بهتر و خدمات بهتر به مشتریان می شود. Sprinklr از Inferentia برای استقرار NLP و برخی از مدل‌های بینایی کامپیوتری استفاده می‌کند و شاهد بهبود عملکرد قابل توجهی است.

برخی از خدمات آمازون نیز مدل های یادگیری ماشینی را در Inferentia مستقر می کنند.

Amazon Prime Video از یک مدل ML بینایی کامپیوتری برای تجزیه و تحلیل کیفیت ویدیوی رویداد زنده استفاده می کند تا از تجربه مخاطب بهینه برای اعضای Prime Video اطمینان حاصل کند. این مدل طبقه‌بندی تصویر ML را در مورد EC2 Inf1 گسترش می‌دهد و شاهد افزایش 4 برابری عملکرد و تا 40 درصد کاهش هزینه در مقایسه با نمونه‌های مبتنی بر GPU است.

مثال دیگر هوش مبتنی بر هوش مصنوعی و ML آمازون الکسا است که توسط خدمات وب آمازون پشتیبانی می‌شود، که امروزه در بیش از ۱۰۰ میلیون دستگاه در دسترس است. قول الکسا به مشتریانش این است که همیشه باهوش تر، پرحرف تر، فعال تر و سرگرم کننده تر باشند. ارائه چنین وعده هایی مستلزم بهبود مستمر در زمان پاسخگویی و هزینه های زیرساخت یادگیری ماشین است. با استفاده از مدل ML متن به گفتار الکسا در Inf1، می‌تواند تأخیر استنتاج را تا 25 درصد و هزینه هر استنتاج را تا 30 درصد کاهش دهد تا تجربه خدمات ده‌ها میلیون مشتری را که هر ماه از الکسا استفاده می‌کنند، بهبود بخشد.

قابلیت‌های جدید یادگیری ماشین را در فضای ابری باز کنید

از آنجایی که شرکت‌ها برای اثبات کسب‌وکار خود در آینده با فعال کردن بهترین محصولات و خدمات دیجیتال رقابت می‌کنند، هیچ سازمانی نمی‌تواند در استفاده از مدل‌های یادگیری ماشینی پیچیده برای کمک به ایجاد تجربیات مشتری عقب بماند. در چند سال گذشته، افزایش قابل توجهی در برنامه‌های یادگیری ماشین برای موارد استفاده مختلف، از شخصی‌سازی و پیش‌بینی انحراف گرفته تا تشخیص تقلب و پیش‌بینی زنجیره تامین وجود داشته است.

خوشبختانه، زیرساخت‌های یادگیری ماشین در فضای ابری قابلیت‌های جدیدی را منتشر می‌کنند که قبلاً در دسترس نبودند، و این امر باعث می‌شود افراد غیرمتخصص به راحتی به آن‌ها دسترسی داشته باشند. به همین دلیل است که مشتریان AWS از نمونه‌های آمازون EC2 Inf1 مبتنی بر Inferentia استفاده می‌کنند تا اطلاعات موجود در پشت موتورهای توصیه‌کننده و چت‌بات‌ها را ارائه دهند و بینش‌های عملی را از بازخورد مشتریان دریافت کنند.

با گزینه‌های زیرساخت یادگیری ماشین مبتنی بر ابر AWS مناسب برای سطوح مختلف مهارت، واضح است که هر سازمانی می‌تواند به نوآوری سرعت بخشد و کل چرخه زندگی یادگیری ماشین را در مقیاس کامل کند. با گسترش گسترده‌تر یادگیری ماشینی، سازمان‌ها اکنون می‌توانند پایه تجربه مشتری – و روش انجام کسب و کارشان – را با یک زیرساخت یادگیری ماشینی مبتنی بر ابری مقرون‌به‌صرفه و با کارایی بالا تغییر دهند.

در اینجا درباره اینکه چگونه پلت فرم یادگیری ماشینی AWS می تواند به شرکت شما در نوآوری کمک کند بیشتر بیاموزید.

این محتوا توسط AWS تولید شده است. این توسط تحریریه MIT Technology Review نوشته نشده است.


تمامی اخبار به صورت تصادفی و رندومایز شده پس از بازنویسی رباتیک در این سایت منتشر شده و هیچ مسئولتی در قبال صحت آنها نداریم