40 گام به سوی آینده‌ای هوشمند - مجموعه وبینارهای رایگان در حوزه هوش مصنوعی
Filter by دسته‌ها
chatGTP
آموزش هوش مصنوعی و انواع آن
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
پایتون و ابزارهای یادگیری عمیق
کتابخانه‌ های یادگیری عمیق
یادگیری با نظارت
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
دیتاست
اخبار
تیتر یک
رسانه‌ها
آموزش پردازش زبان طبیعی
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
رویدادها
کاربردهای هوش مصنوعی
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
 تفاوت استانداردسازی و نرمال‌سازی در چیست؟

تفاوت استانداردسازی و نرمال‌سازی در چیست؟

این مطلب با هدف توضیح دو مفهوم بسیار گیج کننده در مهندسی ویژگی، یعنی استانداردسازی Standardization و نرمال‌سازی Normalization نوشته‌شده است. این دو مفهوم بسیار شبیه به هم هستند و در اکثر مواقع بسیاری از افراد قادر به تشخیص تفاوت و موارد استفاده‌ی آنها نیستند. ولی جای نگرانی نیست توضیحات این وب‌نوشت به تشخیص تفاوت‌های میان این دو و شناخت موارد استفاده‌ی آنها کمک می‌کند.

|| مسابقه هوش مصنوعی (مهلت ثبتنام تا ۱۶ آذر ۱۴۰۱)

عدم تشخیص دو مفهوم استانداردسازی و نرمال‌سازی کاملاً طبیعی است. تا چند ماه قبل من هم به خوبی تفاوت این دو مفهوم را نمی دانستم به همین دلیل به خوبی درک می‌کنم که چطور ممکن است دچار سردرگمی و استیصال شوید زیرا منابع مناسب و کافی برای توضیح این دو مفهوم در دسترس نیست.

پیش از توضیح تفاوت‌های «استانداردسازی» و «نرمال‌سازی» اجازه بدهید کمی درباره مسائل زیربنایی توضیح دهم.
هر دو مفهوم استانداردسازی و نرمال‌سازی بخشی از مهندسی ویژگی هستند که خود زیر مجموعه علم داده است.

مسیر پردازشی علم داده چیست؟

شکی نیست که در دنیای امروزه «علم داده» بر سر زبان‌ها است.همه درباره علم داده صحبت می کنند، اما …
مهندسی ویژگی به معنای به کارگیری دانش و تخصص در جهت بهینه‌سازی ویژگی‌ها است به نحوی که پس از آن این ویژگی‌ها به راحتی و به بهترین نحو به مدل آموزش داده شوند.

هر دو مفهوم استاندارسازی و نرمال‌سازی در مقیاس‌بندی مورد استفاده قرار می‌گیرند، لیکن در نحوه‌ی کارکرد و موارد استفاده با هم تفاوت دارند (منظور از مقیاس‌بندی قرار دادنِ ویژگی‌ در دامنه‌ای خاص به جای قرار داشتن در دامنه‌ای وسیع است. قرار داشتن در دامنه‌ی بزرگ فهمیدن داده‌ها را برای مدل دشوار می‌سازد). همین اطلاعات برای شناخت بافت مهندسی ویژگی کافی است. اکنون مستقیماً به شرح موضوعات اصلی می‌پردازم.

[irp posts=”۸۱۹۱″]

استانداردسازی

منظور از استانداردسازی نرمال نمودن توزیع داده‌ها است. استانداردسازی میانگین داده‌ها را به صفر و واریانس را به ۱ تبدیل می‌کند. هر چه مقادیر داده به سمت بی‌نهایت کشیده ‌شود، واریانس داده‌ها به ۱ نزدیک‌تر می‌شود.

برای مثال، داده‌های زیر را در نظر بگیرید:

استانداردسازی و نرمال‌سازی
داده‌های خام

پس از اجرای عملیات استانداردسازی بر روی داده‌ها، به صورت زیر تغییر خواهند نمود:

استانداردسازی و نرمال‌سازی
داده‌های استادندارد

فرمول استانداردسازی!

استانداردسازی و نرمال‌سازی
فرمول استانداردسازی

در تصویر بالا، x برابر است با مقدار داده، μ برابر است با میانگین داده‌ها، و σ برابراست با واریانس داده‌ها.

اجرای دستور استانداردسازی بر روی داده‌ها!

برای اجرای دستور استانداردسازی، کدنویسی را انجام دهید.

نرمال‌سازی

منظور از نرمال سازی تبدیل داده‌ها به دامنه‌ی [۰ و۱] است. هر کدام از داده‌های ثبت شده در دیتاست به بازه‌ای بین صفر و یک تغییر خواهد نمود. این امر باعث می‌شود داده‌ها تحت دامنه‌ی کوتاه‌تری قرار گیرد و مدل بهتر آموزش ببیند.

برای مثال، داده‌های زیر را در نظر بگیرید:

استانداردسازی و نرمال‌سازی
داده‌های خام

پس از اجرای نرمال‌سازی، داده‌ها به شرح زیر تغییر می‌کنند:

استانداردسازی و نرمال‌سازی
داده‌های نرمال شده

فرمول نرمال‌سازی!

استانداردسازی و نرمال‌سازی
فرمول نرمال‌سازی

در این فرمول Xmin و Xmax  به ترتیب برابر با مقادیر بیشینه و کمینه داده‌ها در دیتاست هستند و معادل داده‌ی خاص در دیتاست است.

اجرای دستور نرمال‌سازی بر روی داده‌ها!

به منظور اجرای دستور نرمال‌سازی، کدنویسی را انجام دهید. توجه داشته باشید که به دلیل لحاظ کردن هر نقطه داده در محاسبه مقادیر مطرح شده برای کتابخانه‌های «مقیاس بندی‌استاندارد» و «مقیاس‌بندی بیشینه-کمینه»، هردو مفهوم به شدت به داده‌‍های پرتِ  موجود در دیتاست حساس هستند. مقادیر محاسبه شده در استانداردسازی و نرمال سازی داده ها مورد استفاده قرا می گیرد.

[irp posts=”۱۱۰۱۵″]

موارد کاربرد استانداردسازی

  • استانداردسازی در اکثر مدل‌های یادگیری ماشین مورد استفاده قرار می‌گیرد و طبق تجربیات دیگران و خودم، نسبت به نرمال‌سازی عملکرد بهتری دارد.
  • در هر شرایطی که نیازی به مقیاس بندی ویژگی‌ها در دامنه‌ی صفر و یک نیست.
  • به دلیل اینکه توزیع داده‌ها را به توزیع نرمال تبدیل می‌کند، در اکثر مواقع بهترین شیوه در یادگیری ماشین است. توزیع نرمال توزیع مطلوب است.

موارد استفاد‌ه نرمال‌سازی

  • در هر شرایطی که باید دامنه‌ی ویژگی‌ها ببین صفر و یک باشد. برای مثال، در داده‌های تصویری به دلیل اینکه دامنه‌ پیکسل‌های رنگی بین صفر تا ۲۵۵ (در مجموع ۲۵۶ رنگ) است، نرمال‌سازی بهتر از استانداردسازی است.
  • موارد مختلفی به چشم می‌خورد که دامنه‌ی صفر و یک مد نظر باشند، در این شرایط شیوه‌ی دلخواه/بهتر مقیاس بندی بیشینه-کمینه است.

امیدوارم مقاله حاضر تمام مسائل و توضیحات مرتبط با این موضوع را به تفصیل بیان کرده باشد و جای هیچگونه ابهامی نباشد.

میانگین امتیاز / ۵. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
[wpforms id="48325"]