دسترسی به هزاران GPU مجازی از طریق سرویس جدید DGX Cloud انویدیا
انویدیا از دسترسی گسترده به سرویس ابررایانه هوش مصنوعی مبتنی بر ابر خود با نام DGX Cloud خبر داد. این سرویس به کاربران اجازه میدهد تا به هزاران پردازنده گرافیکی مجازی انویدیا در زیرساخت ابری Oracle (OCI) و زیرساخت در ایالات متحده و بریتانیا دسترسی داشته باشند. این سرویس به کاربرانی که در پروژههای یادگیری ماشینی و هوش مصنوعی کار میکنند، کمک مینماید تا از طریق ابر به منابع محاسباتی قدرتمندتری دسترسی داشته باشند.
به گزارش هوشیو، DGX Cloud در کنفرانس GTC انویدیا در ماه مارس معرفی شد. این سازمان قول داده که زیرساختها و نرمافزارهای مورد نیاز برای آموزش مدلهای پیشرفته مرتبط با هوش مصنوعی را در اختیار شرکتها قرار دهد.
انویدیا گفته؛ این زیرساخت به طور خاص برای پشتیبانی از مدلهای بزرگ و پیچیده هوش مصنوعی مانند مدلهای زبانی طراحی شده و در ابررایانههای بزرگ برای آموزش کارآمدتر و موثرتر این مدلها استفاده میگردد.
به بیان ساده، DGX Cloud به گونهای تنظیم شده است که از بهترین رایانههای موجود استفاده میکند و آنها را در خوشههای بزرگ برای کار بر روی پروژههای هوش مصنوعی گروهبندی میکند. این خوشهها بر روی یک پهنای باند فوقالعاده بالا و با تأخیر کم که توسط انویدیا ارائه شده به هم متصل میشوند.
Paikeday گفت که DGX Cloud مدیریت زیرساختهای پیچیده را آسان میکند و یک تجربه کاربرپسند از «هوش مصنوعی بدون سرور» ارائه میدهد. این امر به توسعهدهندگان اجازه میدهد تا بر روی ساخت و آزمایش ایدههای خود تمرکز کنند، بدون اینکه نگران جزئیات فنی مدیریت رایانههای خود باشند.
Paikeday به VentureBeat گفت: «سازمانهایی که قبل از ظهور DGX Cloud نیاز به توسعه مدلهای هوش مصنوعی داشتند، مجبور بودند از سیستمهای رایانهای خود برای مدیریت حجم کاری بالای هوش مصنوعی استفاده کنند. اما اکنون آنها با DGX Cloud میتوانند از راه دور و از طریق مرورگر خود، به یک ابررایانه هوش مصنوعی دسترسی داشته باشند، بدون آنکه نیازی به راهاندازی یک مرکز داده ابر محاسباتی باشد.»
انویدیا ادعا میکند که این پیشنهاد به توسعهدهندگان هوش مصنوعی مولد اجازه میدهد تا بارهای کاری سنگین را به بخشهای کوچکتر تقسیم کنند و سپس با استفاده از چندین رایانه بهصورت همزمان بر روی تمامی آنها کار کنند.
این شرکت همچنین ادعا میکند که DGX Cloud به کسبوکارها این امکان را میدهد تا هاب (پلتفرم مرکزی) خود را برای هوش مصنوعی داشته باشند و از تیمهای توسعهدهنده بزرگی که همزمان روی پروژههای هوش مصنوعی متعددی کار میکنند، پشتیبانی میکند. این پروژهها میتوانند از ظرفیت ابررایانهای بهره ببرند که در صورت نیاز بهصورت خودکار حجم کار بالای هوش مصنوعی را برآورده میسازد.