چالش‌های عملیاتی

برترین متخصصین

از سراسر دنیا

مجموعه وبینارهای مدل‌های بزرگ زبانی (LLM)

Filter by دسته‌ها
chatGTP
ابزارهای هوش مصنوعی
اخبار
گزارش خبری
تیتر یک
چندرسانه ای
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
دانش روز
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
خطرات هوش مصنوعی
دیتاست
مدل‌های بنیادی
رویدادها
جیتکس
کاربردهای هوش مصنوعی
کتابخانه
اشخاص
شرکت‌های هوش مصنوعی
محصولات و مدل‌های هوش مصنوعی
مفاهیم
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
مقاله
پیاده‌سازی هوش مصنوعی
گزارش
مصاحبه
هوش مصنوعی در عمل

به عمل حرف برآید…

تصادفی‌سازی به منظور بهبود عدالت در توزیع منابع با استفاده از هوش مصنوعی
ProVision Salesforce آموزش هوش مصنوعی چندوجهی را با استفاده از گراف‌های صحنه تصویری تسریع می‌کند
شرکت‌های تولیدکننده تراشه روی ایالات متحده شرط‌بندی بزرگی کرده‌اند
چطور مدل‌های یادگیری ماشین می‌توانند نابرابری‌ها را در تشخیص و درمان پزشکی افزایش دهند؟
آیا ۲۰۲۴ پایان قانون مور را رقم می‌زند؟
کاهش مصرف انرژی در شبکه‌های عصبی تا 95٪
آیا هوش مصنوعی به آرامی خود و اینترنت را می‌کشد؟
نیاز مبرم به گسترش هوش مصنوعی
HTML برای جلوگیری از بروز هالوسینیشن‌ها در مدل‌های زبان بزرگ
 انقلاب هوش مصنوعی مولد در شرکت‌ها کندتر از آن چیزی است که به نظر می‌رسد
هشدار؛ هوش مصنوعی در حال ساخت تراشه‌های خود است
TPUها در مقابل GPUها در هوش مصنوعی
سقوط آزاد ارزش سهام انویدیا
برترین پیشرفت‌ها در رایانش کوانتومی
آیا ما اصلاً به کامپیوترهای کوانتومی نیاز خواهیم داشت؟
آنتروپیک به جنگRecall مایکروسافت می‌رود
بزرگ‌ترین مشکل انویدیا شاید به زودی بدتر شود
آشتی غول‌های دنیای فناوری اطلاعات باانرژی هسته‌ای
تحولی نوین در خدمات ابری و هوش مصنوعی با مجموعه سهاب
Underspecification: از مشکلات اساسی یادگیری ماشینی که کمتر به آن پرداخته شده است
راه حل های هوش مصنوعی برای مشکلات مختلف
چگونه دیتاست ‌های نامتوازن را در یادگیری عمیق مدیریت کنیم؟
حل چالش مدیریت یادگیری ماشینی به کمک جدیدترین ابزارهای Algorithmia
ساخت سرورهای یادگیری ماشین
کنترل نسخه ابزاری قدرتمند در داده کاوی برای کنترل تغییرات دیتاست ‌ها و مدل‌ های یادگیری ماشین
اشکال ‌زدایی از مدل یادگیری ماشینی
ساخت تولیدکننده داده Keras برای ایجاد توالی‌ از فریم‌های ویدئویی و انجام تحلیل زمانی با RNN
تکنیک‌های داده‌افزایی در یادگیری عمیق
حذف سوگیری الگوریتم های بهداشت و درمان منجر به عملکرد بی‌نقص آن می‌شود
چطور یادگیری نیمه‌نظارت‌شده و خودنظارتی مشکل داده های نامتوازن را حل می‌کنند
استفاده آسان از مدل ‌های یادگیری عمیق
مسیر پردازشی یادگیری عمیق و نحوه تسریع فرایند مراحل آن
پروژه تشخیص اشیاء و ایجاد یک مکانیزم لاگین کردن با استفاده از TDD
موانع توسعه هوش مصنوعی: از این 5 مورد غافل نشوید
افزایش سرعت ربات های کند با یک روش محاسباتی جدید
رقابت ترانسفورماتورها: ELECTRA ،BERT،ROBERTA یا XLNet
فشرده سازی شبکه عصبی: مقدمه‌ای بر هرس وزن، کوانتیزه کردن و تقطیر دانش
ردیابی عابرین پیاده در دوربین های نظارتی با استفاده از کتابخانه Pytorch
آموزش توزیع شده مدل های یادگیری عمیق با پای تورچ

چالش‌های عملیاتی

آیا ۲۰۲۴ پایان قانون مور را رقم می‌زند؟

آیا ۲۰۲۴ پایان قانون مور را رقم می‌زند؟

مدیرعامل NVIDIA، «جنسن هوانگ»، در کنفرانس GTC2024 این شرکت، از پردازنده گرافیکی نسل بعدی خود به نام Blackwell رونمایی کرد و به این ترتیب پایان دوره قانون مور را اعلام کرد.

آیا هوش مصنوعی به آرامی خود و اینترنت را می‌کشد؟

در میان رشد محتوای هوش مصنوعی آنلاین، گروهی از محققان دانشگاه‌های کمبریج و آکسفورد برای بررسی اینکه چه اتفاقی می‌افتد زمانی که ابزارهای تولید محتوای هوش مصنوعی محتوای تولید شده توسط هوش مصنوعی را جستجو می‌کنند، شروع به کار کردند. آنچه آنها یافتند نگران‌کننده بود.

نیاز مبرم به گسترش هوش مصنوعی

وقتی مدل‌های مبتنی بر ترنسفورمرها معرفی شدند، تحول بزرگی در دنیای هوش مصنوعی ایجاد شد. اما در این بین یک مشکل مهم وجود داشت. وقتی یک مدل خیلی بزرگ می‌شد و محققان می‌خواستند فقط بخشی از آن را آموزش دهند، تنها راه‌حل این بود که کل مدل را از ابتدا

TPUها در مقابل GPUها در هوش مصنوعی

رشد و پیشرفت هوش مصنوعی (AI) منجر به افزایش چشمگیر تقاضا برای قدرت پردازشی شده و نیاز به راه‌حل‌های سخت‌افزاری قدرتمند را بیشتر کرده است.

سقوط آزاد ارزش سهام انویدیا

ارزش سهام انویدیا پس از انتشار گزارش‌هایی مبنی بر مشکلات تراشه‌های هوش مصنوعی جدید این شرکت، سقوط کرد. در روزهای اخیر خبر آمد که تراشه‌های هوش مصنوعی جدید شرکت انویدیا موسوم به «بلک‌ول» که با تأخیر هم وارد بازار شدند، مشکلاتی برای سرورها ایجاد کرده‌اند، چرا که بیش از حد

برترین پیشرفت‌ها در رایانش کوانتومی

قدرت پردازشی یکی از مهم‌ترین عوامل در توسعه علوم مختلف است. این روزها با توجه به گسترش استفاده از هوش مصنوعی دسترسی به منابع محاسباتی نیز اهمیت بیشتری پیدا کرده.

تحولی نوین در خدمات ابری و هوش مصنوعی با مجموعه سهاب

مجموعه سهاب با بهره‌گیری از هوش مصنوعی و سرویس‌های ابری، تحولی بزرگ در ارائه خدمات نرم‌افزاری ایجاد کرده و توانسته نیازهای توسعه‌دهندگان را باکیفیت و پایداری بالا تأمین کند. راهبر استراتژیک بازارچه سهاب، از برنامه‌های آینده این پلتفرم برای توسعه سرویس‌های هوشمند و گسترش آن به سطح بین‌المللی خبر داد.

The Dangerously Underdiscussed

Underspecification: از مشکلات اساسی یادگیری ماشینی که کمتر به آن پرداخته شده است

تابع لاس خوب لزوماً به معنی یادگیری خوب نیست همه‌ مدل‌های یادگیری ماشینی در آزمایشگاه‌ کامپیوتر متولد شده و قبل از پیاده‌سازی، تعریف، آزمایش و بازطراحی می‌شوند؛ سپس بعد از آموزش مجدد، به دقت تنظیم شده و در نهایت دوباره مورد آزمایش قرار می‌گیرند. پس از آن، هدف و مأموریت

راه حل های هوش مصنوعی

راه حل های هوش مصنوعی برای مشکلات مختلف

برای شروعِ بهترِ جلسه طوفان فکری هوش مصنوعی، هشت مسئله‌ای را بررسی می‌کنیم که با راه حل های هوش مصنوعی قابل حل هستند. این لیستِ مشکلات کامل یا محدود نیست، اما در هر حال به بسیاری از مشکلات رایج میان شرکت‌ها اشاره می‌کند.حتی ممکن است با بعضی از آن‌ها مواجه

دیتاست ‌های نامتوازن

چگونه دیتاست ‌های نامتوازن را در یادگیری عمیق مدیریت کنیم؟

همیشه همه داده‌‍‌ها کامل و خالی از عیب‌ و نقص نیستند. اگر دیتاست کاملاً متوازنی در اختیار داشته باشید، آدم بسیار خوش‌شانسی هستید در غیر این صورت مدیریت دیتاست ‌های نامتوازن اهمیت بسیاری پیدا می‌کند. اکثر مواقع، داده‌ها تا حدی نامتوازن  Imbalanced هستند. این مورد زمانی اتفاق می‌افتد که هر

سرورهای یادگیری ماشین

ساخت سرورهای یادگیری ماشین

چگونه (API) کاربردی رابط برنامه‌نویسی Application Programming Interface (API) قوی بنویسیم؟ علاقه من به مهندسی تولید و طراحی سیستم به طور مداوم افزایش می‌یابد. پیش از این مقاله‌ای با موضوع مراحل استقرار یک مدل در کاربرد واقعی نوشتم اما در آن مقاله مراحل ساخت سرورهای یادگیری ماشین را با جزئیات

کنترل نسخه

کنترل نسخه ابزاری قدرتمند در داده کاوی برای کنترل تغییرات دیتاست ‌ها و مدل‌ های یادگیری ماشین

بی‌تردید، GIT هدف غاییِ سیستم‌های کنترل نسخه است. GIT عملکرد بسیار خوبی در تهیه نسخه‌های مختلف از کدهای منبع دارد. اما برخلاف مهندسی نرم‌افزار، پروژه‌های «علم داده» دارای فایل‌های بسیار حجیمی مثل دیتاست، فایل‌های مدل آموزش دیده، رمزگشایی برچسب و غیره هستند. اندازه این دست از فایل‌ها می‌تواند تا چند

اشکال زدایی از مدل

اشکال ‌زدایی از مدل یادگیری ماشینی

فرض می‌کنیم یک مدل یادگیری ماشینی (ML) آموزش داده‌اید. همه مراحل را نیز به درستی انجام داده‌اید. مدل شما از دقت و ثبات بسیار خوبی برخوردار است و می‌تواند عملکردی بهتر از مدل خطی برجای بگذارد. شما حتی مدل‌تان را در جعبه «Docker» قرار داده‌اید و همه ابزارها و وابستگی‌های

تولیدکننده داده Keras

ساخت تولیدکننده داده Keras برای ایجاد توالی‌ از فریم‌های ویدئویی و انجام تحلیل زمانی با RNN

مدل‌های یادگیری عمیق برای آموزش به حجم بالایی از داده‌ها نیاز دارند و به دلیل پیچیدگی‌های حافظه Space complexitites عملکرد ضعیفی دارند. انواع تولیدکننده داده برای رفع این مشکل،  به جای این‌که دیتاست را در حافظه ذخیره کند، داده‌ها را در بسته تولید می‌کنند. در این حالت کاربر می‌تواند استفاده

داده‌افزایی

تکنیک‌های داده‌افزایی در یادگیری عمیق

افرادی که برای انجام پروژه‌‍‌های خود به داده‌های تصویری احتیاج دارند، معمولاً این‌‌گونه داده‌ها را جمع‌آوری می‌کنند و برخی مواقع نیز ترجیح می‌دهند دیتاست‌های تصویری را از وب‌سایت‌ها دانلود کنند. از جمله مشکلاتی که ممکن است در این‌گونه دیتاست‌ها وجود داشته باشد می‌توان به کنتراست پایین، تفاوت در وضوح و

حذف سوگیری الگوریتم

حذف سوگیری الگوریتم های بهداشت و درمان منجر به عملکرد بی‌نقص آن می‌شود

مراقبت‌های بهداشتی مبتنی بر هوش مصنوعی قادر به ایجاد تغییر در تصمیم‌گیری و درمان‌های پزشکی است. البته که این الگوریتم‌ها باید کاملا آزمایش و به طور مداوم کنترل شوند تا عواقب پیش‎بینی‌نشده‌ای برای بیماران نداشته باشند و همچنین باید به حذف سوگیری الگوریتم ها به طور ویژه توجه شود.

داده های نامتوازن

چطور یادگیری نیمه‌نظارت‌شده و خودنظارتی مشکل داده های نامتوازن را حل می‌کنند

کار پژوهشی اخیر ما مقاله‌ی Rethinking the Value of Labels for Improving Class-Imbalanced Learning بود که در کنفرانس NeurIPS 2020 نیز پذیرفته شد. در این مقاله اساساً به مسئله‌ی در شرایط عدم توازن داده‌‌ها (که به عنوان توزیع داده‌ها با دنباله‌ی‌ کشیده نیز شناخته می‌شود) پرداختیم که مسئله‌ای قدیمی و

مدل ‌های یادگیری عمیق

استفاده آسان از مدل ‌های یادگیری عمیق

هیجان‌انگیز است که سیستم‌ها قادر به یادگیری از داده باشند، الگوها را شناسایی کنند و با کمترین میزان دخالت انسان به تصمیم‌گیری بپردازند. یادگیری عمیق به نوعی از یادگیری ماشین اطلاق می‌شود که از شبکه‌های عصبی استفاده می‌کند. این نوع یادگیری به سرعت در حال تبدیل شدن به ابزاری برای

مسیر پردازشی یادگیری عمیق

مسیر پردازشی یادگیری عمیق و نحوه تسریع فرایند مراحل آن

همان طور که می‌دانیم در یادگیری عمیق همبستگی غیرقابل‌انکاری بین آموزش و استنتاج  Inference  وجود دارد. استنتاج (که با عنوان پیش‌بینی و امتیازدهی نیز شناخته می‌شود) نقطه کلیدیِ آموزش است. آن دسته از پلتفرم‌های یادگیری عمیق پیوسته که قابلیت مدیریتِ آموزش و استنتاج را دارند، از چند مزیت عمده برخوردارند. در

پروژه تشخیص اشیاء

پروژه تشخیص اشیاء و ایجاد یک مکانیزم لاگین کردن با استفاده از TDD

اخیراً مشغول کار در پروژه‌ای مربوطه به نرم‌افزار پردازش آنی بوده‌ایم. این نرم‌افزار ویدئوها را از سیستم‌های نظارتی دریافت کرده و کادرهای محصورکننده Bounding boxes را در موارد شناسایی‌شده به نمایش در می‌آورد. سپس اطلاعات مربوط به آن موارد در فایل‌های json به صورت رکورد log ذخیره می‌شود. به نظر

موانع توسعه هوش مصنوعی

موانع توسعه هوش مصنوعی: از این 5 مورد غافل نشوید

هوش مصنوعی می‌تواند درست مانند اینترنت، در امور زندگی ما جاری شود. مقیاس استفاده از آن به سرعت در حال رشد است و تا امروز توانسته بسیاری از مشکلات ما را برطرف کند. در آینده هم مطمئنا بیش از پیش روی زندگی عادی و امور کسب و کار ما تاثیر

ترانسفورماتورها

رقابت ترانسفورماتورها: ELECTRA ،BERT،ROBERTA یا XLNet

یکی از «رموز» موفقیت مدل‌های ترانسفورماتورها رویکرد انتقال یادگیری Transfer Learning است. در رویکرد انتقال یادگیری، از پیش یک دیتاست با حجم بالا به یک مدل (در این مورد یک مدل ترانسفورماتور) آموزش داده می‌شود؛ در این رویکرد برای آموزش مدل از تکنیک پیش‌آموزش بدون نظارت Unsupervised Learning استفاده می‌شود.

فشرده سازی شبکه عصبی

فشرده سازی شبکه عصبی: مقدمه‌ای بر هرس وزن، کوانتیزه کردن و تقطیر دانش

در این مقاله روش فشرده سازی شبکه عصبی را توضیح می‌د هیم. معماری‌های مدرن و نوآورانه‌ی شبکه‌های عصبی از اهمیت بسیار زیادی برخوردار هستند. برای مثال شاید با GPT-3، جدیدترین مدل تحولی فناوری پردازش زبان طبیعی (NLP) که OpenAI ارائه داده، آشنایی داشته باشید. این مدل قادر به نوشتن شعر و

یادگیری عمیق با پای تورچ

آموزش توزیع شده مدل های یادگیری عمیق با پای تورچ

هدف از نگارش مقاله پیش‌رو مطالعه و بررسی نحوه استفاده از رایانش توزیع شده Distributed Computing در آموزش مدل های مقیاس بزرگ یادگیری عمیق با پای تورچ است. در ابتدا تعریفی از مفاهیم پایه رایانش توزیع‌شده ارائه می‌دهیم و سپس نحوه استفاده از آن در حوزه یادگیری عمیق را توضیح

[wpforms id="48325"]