هوش مصنوعی متا با انتشار ابزار جدیدی در زمینه بینایی کامپیوتر پیشرفت میکند
شرکت مادر فیسبوک؛ متا، برنامهای برای ارتقا مسئولیتپذیری در زمینه بینایی کامپیوتر دارد و در حال برداشتن گامهایی برای ترویج فناوری بینایی کامپیوتری مسئول است. این شرکت که قبلاً با نام فیسبوک شناخته میشد، این کار را با در دسترس قرار دادن مدل DINOv2 (ابزاری که در بینایی کامپیوتری استفاده میشود) برای استفاده تجاری، انجام خواهد داد.
به گزارش هوشیو، متا همچنین در حال گسترش چشمانداز کاری خود در زمینه محاسبات منبعباز است، تا توسعه سیستمهای مسئولیتپذیرتر را تشویق کند.
متا؛ شرکت مادر فیسبوک اعلام کرد که خانواده مدل بینایی کامپیوتری DINOv2 را برای استفاده تجاری در دسترس قرار میدهد.
متا مجوز مدل خود را به آپاچی 2.0 تغییر داده است. این بدان معنی است که این مدل اکنون میتواند در نرمافزارها یا برنامههای دارای مجوز تجاری استفاده شود و درها را به روی امکانات پیشرفته باز کند. با این حال، توجه به این نکته مهم است که استفاده از علائم تجاری آپاچی در نرمافزارهای دارای مجوز اختصاصی یا اسناد مرتبط محدود شده است.
DINOv2 خانوادهای از مدلهای پایه است که برای رمزگذاری و تجزیهوتحلیل ویژگیهای بصری استفاده میشود. توانایی منحصر به فرد آن برای یادگیری از مجموعههای مختلف تصویر، از جمله تخمین عمق، آن را به یک ابزار همهکاره تبدیل میکند.
هدف متا از انتقال به مجوز Apache 2.0 و به اشتراکگذاری مجموعه گستردهتری از مدلهای قابل استفاده، تشویق خلاقیت و کار گروهی بیشتر در بین کارشناسان بینایی کامپیوتر است. اینکار امکان استفاده از DINOv2 را در طیف گستردهای از برنامهها، از تحقیق تا دنیای واقعی فراهم میکند.
متا همچنین اعلام کرد که مجموعهای از مدلهای اضافی مبتنی بر DINOv2 را منتشر خواهد کرد که میتوانند برای کارهایی مانند درک جزئیات تصویر و تخمین عمق در تصاویر استفاده شوند.
علاوه بر این، نسخه نمایشی DINOv2 نیز بازنگری شده است و کاربران میتوانند ویژگیهای جالب آن مانند تخمین عمق، تقسیمبندی تصویر و تطبیق بخشهای مختلف تصاویر را امتحان کنند.
متا همچنین از یک معیار جدید به نام FACET برای ارزیابی عادلانه بودن مدلهای بینایی کامپیوتری رونمایی کرده است.
به گفته تیم هوش مصنوعی متا، «نبود سوگیری و تبعیض و ارزیابی عدالت در بینایی کامپیوتر همواره چالشبرانگیز بوده است.»
متا در یک پست وبلاگی گفت:«احتمال برچسبگذاری اشتباه وجود دارد و افرادی که از این سیستمهای هوش مصنوعی استفاده میکنند ممکن است تجربه بهتر یا بدتری داشته باشند نه بر اساس پیچیدگی خود کار، بلکه تجربه آنها بسته به گروهی که در آن عضویت دارند متفاوت باشد.»
FACET صرفاً برای اهداف تحقیقاتی قابل استفاده است و نمیتوان از آن برای آموزش مدلهای هوش مصنوعی بهره جست که شرکتها برای اهداف تجاری خود از آن استفاده میکنند.