تصادفیسازی به منظور بهبود عدالت در توزیع منابع با استفاده از هوش مصنوعی
سازمانها به طور روزافزونی از مدلهای یادگیری ماشینی برای تخصیص منابع یا فرصتهای محدود استفاده میکنند.
به عمل حرف برآید…
سازمانها به طور روزافزونی از مدلهای یادگیری ماشینی برای تخصیص منابع یا فرصتهای محدود استفاده میکنند.
با گسترش پروژههای هوش مصنوعی در سراسر جهان، دسترسی به دادههای آموزشی باکیفیت، به یکی از موانع اصلی تبدیل شده است.
ایالات متحده محیطی امنتر نسبت به مناطق دارای تنشهای ژئوپلیتیکی برای تأمین پایدار و قابلاعتماد این اجزای حیاتی فراهم میکند.
آیا استفاده از تکنیکهای هوش مصنوعی میتواند به تقویت تعصبات موجود در نظام بهداشت و درمان منجر شود یا نه؟
مدیرعامل NVIDIA، «جنسن هوانگ»، در کنفرانس GTC2024 این شرکت، از پردازنده گرافیکی نسل بعدی خود به نام Blackwell رونمایی کرد و به این ترتیب پایان دوره قانون مور را اعلام کرد.
بر اساس گزارشها، ChatGPT احتمالاً بیش از نیم میلیون کیلووات ساعت برق را برای پاسخ به حدود 200 میلیون درخواست روزانه مصرف میکند
در میان رشد محتوای هوش مصنوعی آنلاین، گروهی از محققان دانشگاههای کمبریج و آکسفورد برای بررسی اینکه چه اتفاقی میافتد زمانی که ابزارهای تولید محتوای هوش مصنوعی محتوای تولید شده توسط هوش مصنوعی را جستجو میکنند، شروع به کار کردند. آنچه آنها یافتند نگرانکننده بود.
وقتی مدلهای مبتنی بر ترنسفورمرها معرفی شدند، تحول بزرگی در دنیای هوش مصنوعی ایجاد شد. اما در این بین یک مشکل مهم وجود داشت. وقتی یک مدل خیلی بزرگ میشد و محققان میخواستند فقط بخشی از آن را آموزش دهند، تنها راهحل این بود که کل مدل را از ابتدا
اخیراً یک تیم تحقیقاتی از چین مقالهای با عنوان «Html بهتر از متن ساده برای مدلسازی دانش بازیابیشده در سیستمهای RAG» منتشر کرده است.
سر و صدای زیادی پیرامون هوش مصنوعی مولد به پا شده، اما وعدههای آن هنوز محقق نشده است.
هوش مصنوعی اخیراً پیشرفتهای خیرهکنندهای داشته است، در واقع، به نظر میرسد هوش مصنوعی حالا میتواند سخت افزار آینده خود را تا سطح ریزتراشه طراحی کند.
رشد و پیشرفت هوش مصنوعی (AI) منجر به افزایش چشمگیر تقاضا برای قدرت پردازشی شده و نیاز به راهحلهای سختافزاری قدرتمند را بیشتر کرده است.
ارزش سهام انویدیا پس از انتشار گزارشهایی مبنی بر مشکلات تراشههای هوش مصنوعی جدید این شرکت، سقوط کرد. در روزهای اخیر خبر آمد که تراشههای هوش مصنوعی جدید شرکت انویدیا موسوم به «بلکول» که با تأخیر هم وارد بازار شدند، مشکلاتی برای سرورها ایجاد کردهاند، چرا که بیش از حد
قدرت پردازشی یکی از مهمترین عوامل در توسعه علوم مختلف است. این روزها با توجه به گسترش استفاده از هوش مصنوعی دسترسی به منابع محاسباتی نیز اهمیت بیشتری پیدا کرده.
پیشرفتهای سریع در به کارگیری هوش مصنوعی برای شبیهسازی در تحقیقات فیزیک و شیمی باعث شده که برخی افراد این سؤال را مطرح کنند که آیا ما اصلاً به کامپیوترهای کوانتومی نیاز خواهیم داشت یا خیر؟
شرکت آنتروپیک، جدیترین رقیب OpenAI و شرکت فعال در زمینه هوش مصنوعی، در حال تغییر نحوه تعامل انسانها با کامپیوترهاست.
۲۵ سال پیش، غول تولید تراشه انویدیا (NVDA) GeForce 256، اولین واحد پردازش گرافیکی (GPU) جهان را معرفی کرد.
مایکروسافت هفته گذشته اعلام کرد که با Constellation Energy برای راهاندازی مجدد یک رآکتور هستهای در جزیره Three Mile توافق کرده است؛ این توافق به منظور تأمین نیازهای فزاینده برق مراکز داده بوده است.
مجموعه سهاب با بهرهگیری از هوش مصنوعی و سرویسهای ابری، تحولی بزرگ در ارائه خدمات نرمافزاری ایجاد کرده و توانسته نیازهای توسعهدهندگان را باکیفیت و پایداری بالا تأمین کند. راهبر استراتژیک بازارچه سهاب، از برنامههای آینده این پلتفرم برای توسعه سرویسهای هوشمند و گسترش آن به سطح بینالمللی خبر داد.
تابع لاس خوب لزوماً به معنی یادگیری خوب نیست همه مدلهای یادگیری ماشینی در آزمایشگاه کامپیوتر متولد شده و قبل از پیادهسازی، تعریف، آزمایش و بازطراحی میشوند؛ سپس بعد از آموزش مجدد، به دقت تنظیم شده و در نهایت دوباره مورد آزمایش قرار میگیرند. پس از آن، هدف و مأموریت
برای شروعِ بهترِ جلسه طوفان فکری هوش مصنوعی، هشت مسئلهای را بررسی میکنیم که با راه حل های هوش مصنوعی قابل حل هستند. این لیستِ مشکلات کامل یا محدود نیست، اما در هر حال به بسیاری از مشکلات رایج میان شرکتها اشاره میکند.حتی ممکن است با بعضی از آنها مواجه
همیشه همه دادهها کامل و خالی از عیب و نقص نیستند. اگر دیتاست کاملاً متوازنی در اختیار داشته باشید، آدم بسیار خوششانسی هستید در غیر این صورت مدیریت دیتاست های نامتوازن اهمیت بسیاری پیدا میکند. اکثر مواقع، دادهها تا حدی نامتوازن Imbalanced هستند. این مورد زمانی اتفاق میافتد که هر
Algorithmia چندین ابزار جدید ارائه داده است که برای حل مسائل و چالشهای مربوط به مدیریت یادگیری ماشینی Machine Learning Governance مفید هستند.
چگونه (API) کاربردی رابط برنامهنویسی Application Programming Interface (API) قوی بنویسیم؟ علاقه من به مهندسی تولید و طراحی سیستم به طور مداوم افزایش مییابد. پیش از این مقالهای با موضوع مراحل استقرار یک مدل در کاربرد واقعی نوشتم اما در آن مقاله مراحل ساخت سرورهای یادگیری ماشین را با جزئیات
بیتردید، GIT هدف غاییِ سیستمهای کنترل نسخه است. GIT عملکرد بسیار خوبی در تهیه نسخههای مختلف از کدهای منبع دارد. اما برخلاف مهندسی نرمافزار، پروژههای «علم داده» دارای فایلهای بسیار حجیمی مثل دیتاست، فایلهای مدل آموزش دیده، رمزگشایی برچسب و غیره هستند. اندازه این دست از فایلها میتواند تا چند
فرض میکنیم یک مدل یادگیری ماشینی (ML) آموزش دادهاید. همه مراحل را نیز به درستی انجام دادهاید. مدل شما از دقت و ثبات بسیار خوبی برخوردار است و میتواند عملکردی بهتر از مدل خطی برجای بگذارد. شما حتی مدلتان را در جعبه «Docker» قرار دادهاید و همه ابزارها و وابستگیهای
مدلهای یادگیری عمیق برای آموزش به حجم بالایی از دادهها نیاز دارند و به دلیل پیچیدگیهای حافظه Space complexitites عملکرد ضعیفی دارند. انواع تولیدکننده داده برای رفع این مشکل، به جای اینکه دیتاست را در حافظه ذخیره کند، دادهها را در بسته تولید میکنند. در این حالت کاربر میتواند استفاده
افرادی که برای انجام پروژههای خود به دادههای تصویری احتیاج دارند، معمولاً اینگونه دادهها را جمعآوری میکنند و برخی مواقع نیز ترجیح میدهند دیتاستهای تصویری را از وبسایتها دانلود کنند. از جمله مشکلاتی که ممکن است در اینگونه دیتاستها وجود داشته باشد میتوان به کنتراست پایین، تفاوت در وضوح و
مراقبتهای بهداشتی مبتنی بر هوش مصنوعی قادر به ایجاد تغییر در تصمیمگیری و درمانهای پزشکی است. البته که این الگوریتمها باید کاملا آزمایش و به طور مداوم کنترل شوند تا عواقب پیشبینینشدهای برای بیماران نداشته باشند و همچنین باید به حذف سوگیری الگوریتم ها به طور ویژه توجه شود.
کار پژوهشی اخیر ما مقالهی Rethinking the Value of Labels for Improving Class-Imbalanced Learning بود که در کنفرانس NeurIPS 2020 نیز پذیرفته شد. در این مقاله اساساً به مسئلهی در شرایط عدم توازن دادهها (که به عنوان توزیع دادهها با دنبالهی کشیده نیز شناخته میشود) پرداختیم که مسئلهای قدیمی و
هیجانانگیز است که سیستمها قادر به یادگیری از داده باشند، الگوها را شناسایی کنند و با کمترین میزان دخالت انسان به تصمیمگیری بپردازند. یادگیری عمیق به نوعی از یادگیری ماشین اطلاق میشود که از شبکههای عصبی استفاده میکند. این نوع یادگیری به سرعت در حال تبدیل شدن به ابزاری برای
همان طور که میدانیم در یادگیری عمیق همبستگی غیرقابلانکاری بین آموزش و استنتاج Inference وجود دارد. استنتاج (که با عنوان پیشبینی و امتیازدهی نیز شناخته میشود) نقطه کلیدیِ آموزش است. آن دسته از پلتفرمهای یادگیری عمیق پیوسته که قابلیت مدیریتِ آموزش و استنتاج را دارند، از چند مزیت عمده برخوردارند. در
اخیراً مشغول کار در پروژهای مربوطه به نرمافزار پردازش آنی بودهایم. این نرمافزار ویدئوها را از سیستمهای نظارتی دریافت کرده و کادرهای محصورکننده Bounding boxes را در موارد شناساییشده به نمایش در میآورد. سپس اطلاعات مربوط به آن موارد در فایلهای json به صورت رکورد log ذخیره میشود. به نظر
هوش مصنوعی میتواند درست مانند اینترنت، در امور زندگی ما جاری شود. مقیاس استفاده از آن به سرعت در حال رشد است و تا امروز توانسته بسیاری از مشکلات ما را برطرف کند. در آینده هم مطمئنا بیش از پیش روی زندگی عادی و امور کسب و کار ما تاثیر
محققان دانشگاه MIT روش جدیدی را توسعه دادهاند تا به افزایش سرعت ربات های کند کمک کند. آنها این روش را “محاسبات روبومورفیک robomorphic” نامیدهاند.
یکی از «رموز» موفقیت مدلهای ترانسفورماتورها رویکرد انتقال یادگیری Transfer Learning است. در رویکرد انتقال یادگیری، از پیش یک دیتاست با حجم بالا به یک مدل (در این مورد یک مدل ترانسفورماتور) آموزش داده میشود؛ در این رویکرد برای آموزش مدل از تکنیک پیشآموزش بدون نظارت Unsupervised Learning استفاده میشود.
در این مقاله روش فشرده سازی شبکه عصبی را توضیح مید هیم. معماریهای مدرن و نوآورانهی شبکههای عصبی از اهمیت بسیار زیادی برخوردار هستند. برای مثال شاید با GPT-3، جدیدترین مدل تحولی فناوری پردازش زبان طبیعی (NLP) که OpenAI ارائه داده، آشنایی داشته باشید. این مدل قادر به نوشتن شعر و
مقدمه سیستمهای تشخیص و ردیابی عابرین پیاده در دوربین های نظارتی میتوانند در قالب نرمافزارهای مختلفی ظاهر شوند. برای مثال:
هدف از نگارش مقاله پیشرو مطالعه و بررسی نحوه استفاده از رایانش توزیع شده Distributed Computing در آموزش مدل های مقیاس بزرگ یادگیری عمیق با پای تورچ است. در ابتدا تعریفی از مفاهیم پایه رایانش توزیعشده ارائه میدهیم و سپس نحوه استفاده از آن در حوزه یادگیری عمیق را توضیح
هوشیو رسانهای تخصصی در حوزه هوش مصنوعی است که با هدف ایجاد محیطی فراگیر و پویا به ترویج و ارتقای این دانش میپردازد. ما تلاش میکنیم تا علاقهمندان به این حوزه درک عمیقتری از هوش مصنوعی پیدا کنند، از جدیدترین تحولات آن در ایران و جهان مطلع شوند و فعالان و پیشروان این صنعت را بشناسند. هوشیو با تمرکز بر تولید محتوای چندرسانهای شامل ویدئوکست، پادکست، موشنگرافیک و … تجربهای جذاب و آموزنده برای مخاطبان فراهم میکند. همچنین، هوشیو با پوشش رسانهای گسترده رویدادهای هوش مصنوعی در ایران و جهان، بستری را برای اطلاعرسانی و تعامل میان فعالان و علاقهمندان این حوزه ایجاد کرده است.