40 گام به سوی آینده‌ای هوشمند - مجموعه وبینارهای رایگان در حوزه هوش مصنوعی
Filter by دسته‌ها
chatGTP
آموزش هوش مصنوعی و انواع آن
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
پایتون و ابزارهای یادگیری عمیق
کتابخانه‌ های یادگیری عمیق
یادگیری با نظارت
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
دیتاست
اخبار
تیتر یک
رسانه‌ها
آموزش پردازش زبان طبیعی
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
رویدادها
کاربردهای هوش مصنوعی
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
 انویدیا نوید پیشرفت‌های بی‌سابقه‌ در یادگیری ماشینی را می‌دهد

انویدیا نوید پیشرفت‌های بی‌سابقه‌ در یادگیری ماشینی را می‌دهد

بیل دالی، دانشمند ارشد و معاون ارشد تحقیقات انویدیا، امروز در یک سخنرانی دستاوردهای چشمگیری را در عملکردهای سخت‌افزاری برجسته کرد که این پیشرفت‌ها راه را برای پیشرفت در هوش مصنوعی هموار کرده و فرصت‌های هیجان‌انگیزی را برای پیشرفت‌های بیشتر در یادگیری ماشینی ارائه کرده است.

به گزارش هوشیو، بیل دالی، دانشمند ارشد، تحقیقاتی را ارائه کرده که این نوید را می‌دهد که یادگیری ماشینی را به سطوح بی‌سابقه‌ای برساند.

دالی در یک سخنرانی در Hot Chips، رویدادی سالانه برای معماران پردازنده و سیستم، طیف وسیعی از تکنیک‌ها را به نمایش گذاشت که در حال حاضر به کار گرفته می‌شوند و برخی از آنها نتایج قابل توجهی را نشان می‌دهند.

دالی، یکی از برجسته‌ترین دانشمندان کامپیوتر جهان و رئیس سابق دپارتمان علوم کامپیوتر دانشگاه استنفورد، می‌گوید:«پیشرفت در هوش مصنوعی به لطف سخت‎افزار بهبودیافته قابل‌توجه بوده است و این پیشرفت‌ها هنوز هم با سخت‌افزار یادگیری عمیق مهار می‌شوند.»

انویدیا در یادگیری ماشین

به عنوان مثال او نشان داد که چگونه ChatGPT، مدل زبان بزرگ (LLM) یکه توسط میلیون‌ها نفر استفاده می‌شود، می‌تواند طرح کلی برای سخنرانی خود پیشنهاد کند. او گفت که چنین قابلیت‎هایی تا حد زیادی مدیون دستاوردهای GPU در عملکرد استنتاج هوش مصنوعی در دهه گذشته بوده است.

محققان در حال آماده‌سازی موج بعدی پیشرفت‌ها هستند. دالی جزئیات مربوط به یک تراشه آزمایشی را به اشتراک گذاشت که عملکرد چشمگیر تقریباً ۱۰۰ عملیات ترا در هر وات را در پیکربندی حافظه کم‌مصرف و کم‌انرژی (LLM) نشان می‌داد.

از طریق آزمایش اخیر، محققان روشی کم‌مصرف برای افزایش سرعت مدل‌های ترانسفورماتور مورد استفاده در هوش مصنوعی مولد کشف کرده‌اند. این تکنیک شامل استفاده از محاسبات چهار بیتی است که یک روش عددی ساده شده به شمار می‌رود. این روش چشم‌اندازهای امیدوارکننده‌ای برای پیشرفت‌ها و ارائه مزایای بیشتر در آینده را نشان می‌دهد.

دالی راه‌هایی را برای سرعت بخشیدن به محاسبات و صرفه‌جویی در انرژی با استفاده از ریاضیات لگاریتمی، به‎عنوان رویکردی برای دستیابی به این اهداف، مورد بحث قرار داده است. رویکردی که در پتنت ثبت‌شده توسط NVIDIA در سال ۲۰۲۱ به تفصیل شرح داده شده است.

او ده‌ها تکنیک دیگر را برای سفارشی کردن سخت‌افزار به طور خاص برای انجام وظایف هوش مصنوعی بررسی کرده است. این سفارشی‌سازی شامل ایجاد انواع داده یا عملیات جدید برای بهینه‌سازی عملکرد سخت‌افزار در برنامه‌های هوش مصنوعی است.

دالی یادآور شد که محققان باید سخت‌افزار و نرم‌افزار را با هم توسعه دهند و در مورد نحوه تخصیص منابع انرژی انتخاب‌های متفکرانه‌ای داشته باشند. به عنوان مثال، به حداقل رساندن انتقال داده در حافظه و مدارهای ارتباطی باید در اولویت قرار گیرد.

دالی گفت: «مهندس کامپیوتر بودن در عصر حاضر مملو از هیجان است، زیرا آنها نقش تاثیرگذاری در انقلاب مهمی دارند که در هوش مصنوعی در حال رخ دادن است. گستره واقعی این انقلاب هنوز به طور کامل درک نشده و این موضوع آن را هیجان‌انگیزتر می‌کند.»

بنر اخبار هوش مصنوعی

میانگین امتیاز / ۵. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
[wpforms id="48325"]