40 گام به سوی آینده‌ای هوشمند - مجموعه وبینارهای رایگان در حوزه هوش مصنوعی
Filter by دسته‌ها
chatGTP
آموزش هوش مصنوعی و انواع آن
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
پایتون و ابزارهای یادگیری عمیق
کتابخانه‌ های یادگیری عمیق
یادگیری با نظارت
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
دیتاست
اخبار
تیتر یک
رسانه‌ها
آموزش پردازش زبان طبیعی
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
رویدادها
کاربردهای هوش مصنوعی
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
 تخمین عمق در وسایل نقلیه خودران

تخمین عمق در وسایل نقلیه خودران

در این مقاله به توضیح برخی از پیشرفته‌ترین روش‌های تخمین عمق در وسایل نقلیه خودران  و یا همان پیش‌بینی عمق Depth در توالی عکس‌هایی می‌پردازیم که وسایل نقلیه ثبت کرده‌اند؛ این تصاویر بدون نیاز به استفاده از دوربین‌های اضافی و حسگرها به ساخت و تولید مدل‌های وسایل نقلیه خودران کمک می‌کنند.

تخمین عمق در وسایل نقلیه خودران

همان‌گونه که در مقاله چگونگی عملکرد وسایل نقلیه خودران: مقدمه‌ای بر موقعیت‌یابی و نقشه‌بردای همزمان (SLAM) Simultaneous Localization And Mapping (SLAM) گفتم حسگرهای زیادی وجود دارند که در حین حرکت وسایل نقلیه،  از آن‌ها برای ثبت اطلاعات استفاده می‌شود.

اطلاعاتی که این حسگرها ثبت می‌کنند شامل سرعت، موقعیت، عمق، حرارت و غیره است.  سپس این اطلاعات به یک سیستم بازخورد Feedback system تغذیه می‌شود و این سیستم مدل‌های حرکت Motion models  وسایل نقلیه را آموزش می‌دهد و وسایل نقلیه باید از آن‌ها پیروی کنند. در این مقاله به بحث و گفت‌و‌گو راجع به تخمین عمق در وسایل نقلیه خودران می‌پردازیم که اغلب توسط یک حسگر LiDAR ثبت می‌شود.

[irp posts=”۵۳۲۵″]

حسگر LiDAR با استفاده از یک لیزر Laser و یک حسگر که نور بازتابیده Reflected light را اندازه می‌گیرد، فاصله از یک شی را ثبت می‌کند. با توجه به این‌که استفاده از حسگر LiDAR در وسایل نقلیه روزمره مقرون به صرفه نیست، به چه روش‌های دیگری می‌توانیم تخمین عمق در وسایل نقلیه خودران را انجام دهیم؟

روش‌های پیشرفته‌ای که قصد دارم در این مقاله معرفی کنم رویکردهای یادگیری عمیق بدون نظارت Unsupervised deep learning approaches هستند که برای اندازه‌گیری عمق، از اختلاف و یا تفاوت در پیکسل‌ها از یک فریم تا فریم بعدی استفاده می‌کنند.

Monodepth2

نویسندگان مقاله روشی بسط داده‌اند که در آن شبکه های عمق در کنار شبکه‌های ژست Pose netwroks قرار گرفته اند تا بدین وسیله عمق در یک فریم را پیش‌بینی می‌کنند. نویسندگان این مقاله برای تخمین عمق در وسایل نقلیه خودران، معماری خود را با رشته‌ای از فریم‌ها آموزش می‌دهند و علاوه بر آن از چندین تابع زیان برای آموزش این دو شبکه استفاده می‌کنند. در این روش برای آموزش، به دیتاست برچسب‌دار Ground truth dataset نیازی نیست.

[irp posts=”۱۹۴۲۹″]

در عوض در این روش از فریم‌های متوالی زمانی Consecutive temporal frames یک عکس برای آموزش استفاده می‌شود. علاوه بر این در این روش برای کمک به یادگیری محدود، از یک شبکه تخمین ژست Pose estimation network استفاده می‌شود. مدل با تفاوت‌های میان تصویر ورودی و تصویری که از خروجی شبکه ژست و شبکه عمق Depth network بازسازی شده آموزش می‌بیند. در آینده فرایند بازسازی را با جزئیات بیشتری شرح می‌دهیم. اصلی‌ترین یافته‌های این مقاله عبارتند از:

۱- تکنیک ماسک‌کردن خودکار Auto-masking technique برای تمرکز بر روی پیکسل‌های مهم‌تر

۲- اصلاح خطای فتومتریک بازسازی Photometric reconstruction error با استفاده از نگاشت عمق Depth map 

۳- تخمین چند مقیاسی عمق

معماری

در ادامه مقاله تخمین عمق در وسایل نقلیه خودران به موضوع معماری می‌پردازیم. در روشی که در این مقاله ارائه شده است از یک شبکه عمق و یک شبکه ژست استفاده می‌شود. شبکه عمق معماری انکودر- دیکودر U-Net (2) است. انکودر مدل ResNet است که از پیش آموزش دیده است. دیکودر عمق مشابه کار قبلی است که در آن خروجی سیگموئید Sigmoid output را به مقادیر عمق تبدیل می‌کند.

تخمین عمق در وسایل نقلیه خودران
نمونه تصویر U-Net

 

نویسندگان این مقاله از یک شبکه ژست ResNet18 استفاده می‌کنند؛ این شبکه به گونه‌ای اصلاح شده که دو عکس رنگی را به عنوان ورودی بگیرد تا یک ، یا  چرخش Rotation و ترجمه را پیش‌بینی کند.

شبکه ژست به جای استفاده از جفت استریو
Stereo pair
از فریم‌‌های زمانی به عنوان دو تصویر استفاده می‌کند. این شبکه، ظاهر تصویر مقصد را با در نظر گرفتن تصویر دیگری در همان دنباله، یک فریم قبل یا یک فریم بعد، پیش‌بینی می‌کند.

تخمین عمق در وسایل نقلیه خودران

آموزش

تصویر مقابل نشان‌دهنده فرایند آموزش معماری است.

نمونه تصویر U-Net
تصویر برگرفته از KITTI و روش ارائه شده در مقاله (۱)

خطای فتومتریک بازسازی

تصویر مقصد در فریم ۰ قرار دارد و تصاویر مورد استفاده جهت پیش‌بینی می‌توانند فریم قبلی یا فریم بعدی یا به عبارت دیگر فریم +۱ یا فریم – ۱  باشند. زیان بر اساس شباهت‌های میان تصویر مقصد و تصویر بازسازی‌شده مقصد محاسبه می‌شود. در فرایند بازسازی ابتدا باید با استفاده از شبکه ژست، ماتریس تبدیل Transformation matrix فریم مبدأ ، فریم +۱  یا فریم – ۱ ، محاسبه می‌شود.

[irp posts=”۱۷۴۹۵″]

به عبارت دیگر با استفاده از اطلاعاتی راجع به چرخش و ترجمه ، نگاشت از فریم مبدأ به فریم مقصد را محاسبه می‌کنیم. سپس از نگاشت عمق که از شبکه ژست برای تصویر مقصد پیش‌بینی شده ‌و از ماتریس تبدیلِ شبکه ژست استفاده می‌کنیم تا با ماتریس درونی k Intrinsics matrix k به دوربین راه پیدا کنیم و تصویر بازسازی‌شده مقصد را ثبت کنیم. در فرایند بازسازی لازم است ابتدا نگاشت عمق به یک اَبر نقطه سه بعدی ۳D point تبدیل شود، سپس با استفاده از پارامترهای درونی دوربین camera intrinsics، موقعیت‌های سه بعدی ۳D position را به نقاط دو بعدی تبدیل می‌کنیم.

از نقاط به دست آمده به عنوان توری نمونه برداری Sampling grid برای درون یابی دو خطی Bilinearly interpolate تصویر مقصد استفاده می‌شود.

هدف زیان این است که تفاوت‌های میان تصویر مقصد و تصویر باز‌سازی‌شده مقصد را کاهش دهد؛ در هر دو تصویر به ژست و عمق نیاز است.

تصویر برگرفته از KITTI و روش ارائه شده در مقاله (1)
تابع زیان فتومتریک [۱]
مزایای استفاده از خطای حداقلی فتومتریک. نواحی پیکسلی که دور آن خط کشیده شده مسدود شده اند. تصویر از (۱)

 

معمولا روش­های مشابه، میانگین خطای بازنگاشت Reprojection error برای تصاویر مبدا (فریم +۱ و فریم -۱) را در نظر میگیرند.  با وجود این، اگر پیکسلی در یکی از این فریم‌ها قابل رویت نباشد اما در فریم مقصد وجود داشته باشد به این دلیل که به مرزهای تصویر نزدیک است و یا مسدود شده است، جریمه خطای فتومتریک بالا خواهد بود. برای حل و رفع مسائل مربوط به آن، در تمامی تصاویر مبدأ از خطای حداقلی فتومتریک استفاده می‌کنند.

ماسک‌گذاری خودکار

آخرین زیان فتومتریک در یک ماسک ضرب می‌شود تا بتوانند مسئله مربوط به تغییر در فرضیه حرکت دوربین در صحنه ای ثابت را در نظر بگیرد؛ برای مثال یک شی با سرعتی یکسان با دوربین در حرکت است یا زمانی که اشیای دیگر در حرکت هستند، دوربین متوقف شده است.

مشکلی که در این حالت با آن مواجه می‌شویم این است که نگاشت عمق، عمقی نامحدود Infinite depth پیش‌بینی می‌کند. نویسندگان این مقاله، این روش را روش ماسک‌گذاری خودکار می‌نامند که پیکسل‌هایی که ظاهر را از یک فریم به فریم بعدی تغییر نمی‌دهند را فیلتر می‌کند. آن‌ها با استفاده از باینری‌ای که در آن اگر خطای حداقلی فتومتریک میان تصویر مقصد و تصویر بازسازی‌شده مقصد کمتر از خطای حداقلی تصویر مقصد و تصویر مبدأ باشد ۱ است و در غیر این صورت ۰ (صفر) خواهد بود، ماسک تولید می‌کنند.

روش تولید ماسک‌گذاری خودکار مقاله (۱) که در آن براکت آیورسون اگر صحیح باشد ۱ و اگر نادرست باشد ۰ برمیگرداند.

 

زمانی‌که دوربین ثابت باشد، تمامی پیکسل‌های یک عکس پوشانده می‌شوند. زمانی که شی با سرعتی مشابه با دوربین در حرکت باشد، پیکسل‌های اشیای ثابت در تصویر پوشانده می‌شوند.

تخمین چند مقیاسی

نویسندگان این مقاله زیان‌ها در هر مقیاس را با یکدیگر ترکیب می‌کنند. نویسندگان نگاشت‌های عمق وضوح پایین‌تر را به تصاویر ورودی با وضوح بالاتر نمونه‌افزایی Upsample می‌کنند (ابعاد تصویر را افزایش می‌دهند) و سپس خطای فتومتریک را در ورودی با وضوح بالاتر تصویرسازی، بازنمونه‌گیری و محاسبه می‌کند. آن‌ها ادعا می‌کنند این کار باعث می‌شود  نگاشت‌های عمق در هر مقیاس برای دست‌یابی به یک هدف واحد یعنی بازسازی تصویر مقصد با دقت وضوح بالا تلاش ‌کنند.

سایر زیان‌ها

علاوه بر این نویسندگان از زیان هموار لبه Edge-aware smoothness loss میان مقادیر نگاشت عمق که میانگین آن‌ها نرمال‌سازی شده و تصاویر ورودی و خروجی استفاده می‌کنند. این کار مدل‌ را تشویق می‌کند که لبه‌های تیز Sharp edges
را یاد بگیرند و نویزها را از بین ببرد.

آخرین تابع زیان عبارت است:

آخرین تابع زیان در (۱) که میانگین آن در هر پیکسل، مقیاس و دسته محاسبه شده است.

نتایج

نویسندگان این مقاله، مدل خود را در سه دیتاست که شامل سکانس‌های رانندگی‌ است ارزیابی کرده‌اند. روش آن‌ها تقریبا از تمامی روش‌ها عملکرد بهتری داشته است. تصویر مقابل نمونه‌ای از عملکرد روش آن‌ها است.

تصویر از (۱) مخزن GitHub: https://github.com/nianticlabs/monodepth2/

 

برای کسب اطلاعات بیشتر راجع به نتایج آن‌ها می‌توانید به مقاله مرجع  برآورد عمق تک قطبی خودنظارتی رجوع کنید.

تعمیم Monodepth2: Struct2Depth

مدل‌سازی حرکت شی

نویسندگانی از  Google brain مقاله‌ای تألیف کرده‌اند و در آن Monodepth2 را بسط داده‌اند. آن‌ها به جای پیش‌بینی کل تصویر حرکات تک تک اشیا را پیش‌بینی می‌کنند و از این طریق شبکه ژست را ارتقا می‌دهند.

در این حالت به جای این‌که تصاویر بازسازی‌شده یک تصویرسازی واحد باشند، توالی‌ای از تصویر‌سازی‌ها خواهند بود که در آینده با هم ترکیب می‌شوند. آن‌ها با استفاده از دو مدل – یک مدل حرکت شی و یک شبکه حرکت ego ( مشابه شبکه ژست که در قسمت قبلی توضیح دادیم) این کار را انجام می‌دهند. مراحل انجام این کار به ترتیب زیر است.

خروجی نمونه برای Mask R-CNN (2). تصویر از (۲)

 

۱- یک Mask R-CNN (2) از پیش آموزش داده شده اجرا می‌شود تا تقطیع‌بندی اشیایی که به صورت بالقوه متحرک هستند را ثبت کند.

۲- از یک ماسک باینری استفاده می‌شود تا اشیایی که به صورت بالقوه متحرک هستند را از تصاویر ثابت حذف کنند ( فریم -۱، فریم ۰ و فریم +۱)

۳- تصویر ماسک‌گذاری‌شده به شبکه حرکت ego ارسال می‌شود و ماتریس تبدیل میان فریم -۱ ، ۰ و فریم ۰  و +۱ خروجی آن خواهند بود.

تخمین عمق در وسایل نقلیه خودران

فرایند ماسک‌گذاری برای استخراج پس‌زمینه ثابت که به دنبال آن ماتریس تبدیل حرکت ego بدون اشیای متحرک قرار می‌گیرد. معادله از (۳)

۱- از ماتریس تبدیل حرکت ego که در مرحله ۳  به دست آمده استفاده می‌شود و بر روی فریم -۱ و فریم +۱ اعمال می‌شود تا فریم اعوجاج‌شده ۰ را بگیرد.

۲- – از ماتریس تبدیل شبکه حرکت ego که  در مرحله ۳  به دست آمده استفاده می‌شود و در ماسک تقطیع‌بندی اشیایی که در فریم -۱ و فریم +۱  به صورت بالقوه متحرک هستند اعمال می‌شود تا به ازای تمامی اشیا یک ماسک تقطیع‌بندی اعوجاج‌شده برای فریم ۰ را بگیرد.

۳- از یک ماسک باینری برای حفظ پیکسل‌های مرتبط با ماسک تقطیع‌بندی اعوجاج‌شده استفاده می‌شود.

۴- عکس‌های ماسک‌گذاری‌شده با تصاویر اعوجاج‌شده ترکیب می‌شوند و به مدل متحرک اشیا منتقل می‌شوند و خروجی این مدل حرکت پیش‌بینی‌شده شی خواهد بود.

تخمین عمق در وسایل نقلیه خودران
مدل متحرک شی برای یک شی. معادله از (۳)

در نتیجه چگونگی حرکت دوربین برای «توضیح دادن» تغییر در ظاهر اشیا نمایش داده خواهد شد. هدف ما این است که اشیا را مطابق مدل‌های متحرک به دست‌آمده از مرحله ۴ فرایند مدل‌سازی متحرک اشیا حرکت دهیم. در آخر حرکات اعوجاج‌شده اشیا را با پس‌زمینه ثابت اعوجاج‌شده ترکیب می‌کنیم تا اعوجاج نهایی را به دست آوریم:

تخمین عمق در وسایل نقلیه خودران
معادله از (۳)
تخمین عمق در وسایل نقلیه خودران
تصویر از (۵)

یادگیری مقیاس اشیا

Monodepth2 با بهره گیری از تکنیک ماسک‌گذاری خودکار به مسائل مربوط به اشیای ثابت و یا اشیایی می‌پردازد که با سرعتی مشابه با دوربین حرکت می‌‌کنند، پیشنهاد نویسندگان این مقاله این است که مدل را آموزش دهیم تا مقیاس اشیا را تشخیص دهد و بدین وسیله مدل‌سازی متحرک اشیا را ارتقاء دهیم.

تخمین عمق در وسایل نقلیه خودران

تصویر از Struct2Depth. ستون میانی نشان‌دهنده عمق نامحدودی است که به اشیایی اعمال شده که با سرعتی مشابه با دوربین در حرکت هستند. ستون سوم نشان‌دهنده روش آن‌ها است که آن را ارتقاء داده است.

نویسندگان این مقاله برای هر شی بر مبنای دسته هر یک از اشیا، برای مثال «خانه» یک زیان تعریف می‌کنند. هدف از انجام این کار محدود کردن عمق بر مبنای اطلاعات مربوط به مقیاس اشیا است.

زیان، اختلاف میان نگاشت عمق خروجیِ شیِ دورن تصویر و نگاشت تقریبی عمق است که با استفاده از فاصله کانونی دوربین Camera’s focal length، ارتفاع بر مبنای دسته شی، ارتفاع حقیقیِ شی تقطیع‌شده در تصویر که هر دو با میانگین عمق برای تصویر مقصد مقیاس‌بندی شده‌اند:

تخمین عمق در وسایل نقلیه خودران
فرمول زیان که به مدل کمک می‌کند مقیاس اشیا را یادبگیرد. معادله از (۳)

نتایج

مدل‌هایی که در (۳) توضیح داده شدند مستقیماً با مدل Monodepth2 مقایسه شدند و پیشرفت‌های چشمگیری نسبت به آن داشتند.

تخمین عمق در وسایل نقلیه خودران
ستون میانی نشان‌دهنده نتایج (۳) است، در حالی‌که حقیقت مبنا در ستون سوم نمایش داده شده است. تصویر از (۵)

 

میانگین امتیاز / ۵. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
[wpforms id="48325"]