40 گام به سوی آینده‌ای هوشمند - مجموعه وبینارهای رایگان در حوزه هوش مصنوعی
Filter by دسته‌ها
chatGTP
آموزش هوش مصنوعی و انواع آن
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
پایتون و ابزارهای یادگیری عمیق
کتابخانه‌ های یادگیری عمیق
یادگیری با نظارت
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
دیتاست
اخبار
تیتر یک
رسانه‌ها
آموزش پردازش زبان طبیعی
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
رویدادها
کاربردهای هوش مصنوعی
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
 مدل‌های زبانی بزرگ NVIDIA در دسترس کسب‌وکارها قرار می‌گیرند

مدل‌های زبانی بزرگ NVIDIA در دسترس کسب‌وکارها قرار می‌گیرند

NVIDIA بستری برای کسب‌وکارهای سراسر جهان فراهم آورده است تا بتوانند مدل‌های زبانی بزرگ (LLM) را طراحی و مستقر کنند. کسب‌وکارها با تکیه بر این طراحی می‌توانند ربات‌های سخنگوی ویژه حوزه‌های خاص، دستیارهای شخصی و دیگر سیستم‌های هوش مصنوعی توسعه دهند.

شرکت NVIDIA به تازگی چارچوب NeMo Megatron را عرضه کرد؛ با استفاده از این چارچوب، می‌توان مدل‌های زبانی متشکل از تریلیون‌ها پارامتر را آموزش داد. افزون بر این، نرم‌افزار Triton Inference Server (محصول شرکت NVIDIA) در زبان‌ها و حوزه‌های جدید از استنتاج توزیعی و چندگِرهی پشتیبانی می‌کند. هنگامی‌ که از این نرم‌افزار در کنار سیستم‌های DGX (محصول NVIDIA) استفاده شود، می‌توانند راهکارهایی در سطح سازمانس ارائه دهند و ساخت و استقرار مدل‌های زبانی بسیار بزرگ را آسان کنند.

[irp posts=”18980″]

به گفته برایان کاتانزارو ، معاون تیم تحقیقاتی یادگیری عمیق کاربردی در شرکت NVIDIA، «مدل‌های زبانی بزرگ انعطاف‌پذیری و کارایی خود را ثابت کرده‌اند. این مدل‌ها می‌توانند به سؤالات تخصصی حوزه‌های مختلف پاسخ دهند، اسناد را درک کنند و خلاصه کنند و داستان و برنامه‌های محاسباتی بنویسند. این‌ مدل‌ها تمامی این مسائل را بدون اینکه آموزش خاصی ببینند یا تحت نظارت باشند، انجام می‌دهند. شاید بتوان گفت مهم‌ترین کاربردی که ابررایانش تا به امروز داشته، توسعه مدل‌های زبانی بزرگ برای زبان‌ها و حوزه‌های جدید بوده است و هم‌اکنون، این قابلیت‌ها در دسترس شرکت‌های سراسر جهان قرار گرفته‌اند.»

NVIDIA

افزایش سرعت توسعه LLMها

NeMo Megatron بر پایه Megatron استوار است؛ Megatron چارچوبی متن باز است که مدل‌های زبانی بزرگ و مبتنی بر معماری ترنسفورمر را به اجرا در می‌آورد. این چارچوب به کوشش پژوهشگران NVIDIA ساخته شده است. Megatron از 530 میلیارد پارامتر تشکیل شده است. این مدل زبانی، بیشترین قابلیت سفارشی‌سازی را در جهان دارد.

شرکت‌ها با استفاده از چارچوب NeMo Megatron می‌توانند بر موانعی که بر سر راه توسعه مدل‌های پردازش زبان طبیعی وجود دارد، غلبه کنند. این چارچوب به گونه‌ای طراحی شده است که در زیرساخت محاسباتی، بزرگ‌مقیاس و شتاب‌داده‌شده NVIDIA موسوم به DGX SuperPOD گسترش پیدا می‌کند (Scale out). Nemo Megatron با تکیه بر کتابخانه‌های پردازش‌داده‌ که داده‌ها را تحلیل، گزینش، طبقه‌بندی و پاکسازی می‌کنند، فرایند دشوار آموزش LLMها را به صورت خودکار در می‌آورد.

[irp posts=”4147″]

فناوری‌های قدرتمند موازی‌سازی داده، تنسور و پایپ‌لاین موجب می‌شود، آموزش مدل‌های زبانی بسیار بزرگ به نحوی مؤثر میان هزاران GPU توزیع شوند. شرکت‌ها با استفاده از چارچوب NeMo Megatron می‌توانند LLMها را متناسب با موضوعات و زبان‌های موردنظر خود، آموزش دهند.

استنتاج آنی LLM

Triton Inference Server قابلیت‌ چندگِرهی و چند GPUای دارد و با تکیه بر همین قابلیت‌ها استنتاج حجمی را که LLM باید انجام دهد، میان چندین GPU و گِره توزیع می‌کند. یک GPU واحد نمی‌تواند حافظه موردنیاز برای این مدل‌ها را تأمین کند. سِرور بزرگی با چندین GPU می‌تواند حافظه موردنیاز برای این مدل‌ها را فراهم کند و استنتاج باید به سرعت برای برنامه‌ها انجام شود. Megatron که 530 میلیارد پارامتر دارد، درحال‌حاضر، ممکن است بر روی دو سیستم DGX اجرا شود و مدت زمان پردازش را از یک دقیقه بر روی سرور CPU به سی ثانیه کاهش دهد و بدین ترتیب، استقرار LLMها را برای کاربردهای آنی میسر کند.

NVIDIA

مدل‌های زبانی سفارشی

SiDi، JD Explore Academy و VinBrain جزء اولین شرکت‌هایی هستند که با استفاده از DGX SuperPOD مدل‌های زبانی بسیار بزرگ ساخته‌اند. SiDi یکی از سازمان‌های پیشرو در زمینه تحقیق و توسعه حوزه هوش مصنوعی در برزیل است؛ این سازمان، دستیار مجازی سامسونگ را برای 200 میلیون گویشور پرتغالی اصلاح و شخصی‌سازی کرده است.

به گفته جان یی ، مدیرعامل SiDi، «تیم SiDi تجربه و مهارت زیادی در زمینه توسعه ربات‌های سخنگو و دستیاران مجازی هوش مصنوعی دارند؛ لازمه ساخت این دو عملکرد عالی هوش مصنوعی و نرم‌افزاری تخصصی است که با تغییرات ظریف زبان طبیعی آموزش دیده و به صورت دقیق تنظیم شده است. سیستم DGX SuperPOD برای پیشبرد پروژه‌های پیشرفته تیم ما مناسب است و ما را قادر می‌سازد، سرویس‌های هوش مصنوعی به گویشوران برزیلی- پرتغالی عرضه کنیم.»

[irp posts=”11632″]

JD Explore Academy، بخش تحقیق و توسعه JD.com، (یکی از ارائه‌دهندگان پیشگام سرویس و فناوری) قصد دارد با استفاده از DGX SuperPOD یک سرویس پردازش زبان طبیعی توسعه دهد و آن را در خدمات هوشمند مشتریان، خرده‌فروشی هوشمند، لجستیک هوشمند، اینترنت اشیا، بهداشت و درمان و غیره به کار گیرد.

شرکت VinBrain، فعال در زمینه بهداشت و درمان هوشمند واقع در ویتنام، با استفاده از DGX SuperPOD در 100 بیمارستان یک مدل زبانی بالینی برای رادیولوژیست‌ها و پزشکی از راه دور توسعه داده و مستقر کرده است. درحال‌حاضر، بیش از 600 نفر از کادر درمان از این مدل زبانی استفاده می‌کنند.

دسترسی به Triton

برای دسترسی به Triton می‌توانید از طریق کاتالوگ NGC اقدام کنید. NGC یک منبع کد (repo) برای آن دسته از نرم‌افزارهای هوش مصنوعی است که با GPU شتاب داده شده‌اند و شامل چارچوب‌ها، جعبه‌ابزارها، مدل‌های از پیش آموزش‌داده‌شده و نوت‌بوک‌های Jupyter است. علاوه بر این، از طریق منبع کد گیت‌هاب Triton نیز می‌توانید به این نرم‌افزار دسترسی پیدا کنید. Triton یکی از اجزای پشته نرم‌افزاری AI Enterprise شرکت NVIDIA است که NVIDIA آن را بهینه‌سازی، تأیید و پشتیبانی می‌کند. در نتیجه، شرکت‌ها می‌توانند با استفاده از این پشته نرم‌افزاری، استنتاج مدل زبانی را بر روی سِرورهای شتاب‌یافته موجود در مراکز داده و فضاهای ابریِ خصوصی اجرا کنند.

جدیدترین اخبار هوش مصنوعی ایران و جهان را با هوشیو دنبال کنید

میانگین امتیاز / 5. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
[wpforms id="48325"]