Filter by دسته‌ها
chatGTP
ابزارهای هوش مصنوعی
اخبار
گزارش
تیتر یک
چندرسانه ای
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
دانش روز
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
دیتاست
رویدادها
جیتکس
کاربردهای هوش مصنوعی
کتابخانه
اشخاص
شرکت‌های هوش مصنوعی
محصولات و مدل‌های هوش مصنوعی
مفاهیم
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
مقاله
 پیشرفت هوش مصنوعی به استفاده کمتر، و نه بیشتر، از داده ها بستگی دارد

پیشرفت هوش مصنوعی به استفاده کمتر، و نه بیشتر، از داده ها بستگی دارد

زمان مطالعه: 5 دقیقه

به عنوان فعالان جامعه‌ی علوم داده، شاهد آغاز یک infodemic (فزون‌باری اطلاعاتی) هستیم: جریانی از فزونی اطلاعات صحیح و غیرصحیح که داده ها را به جای یک ابزار کمکی، به یک بار اضافی تبدیل کرده است. جریان کنونی به سمت و سوی مدل‌هایی از هوش مصنوعی پیش می‌رود که نیاز به داده های فراوان و محاسبات سنگین دارند. این امر منجر به نارکارآمدی و عوارض منفی دیگری خواهد شد که در قسمت‌های بعدی این نوشتار به آن‌ها خواهیم پرداخت.

به منظور اجتناب از پیامدهای منفی جدی، خود جامعه‌ی علوم داده باید به فکر اعمال محدودیت‌هایی از نظر داده ها و منابع محاسباتی باشد.

کاربردهای هوش مصنوعی با استفاده از حداقل داده های ممکن، صنایع گوناگون مبتنی بر هوش مصنوعی (از جمله امنیت سایبری که در این نوشتار بیشتر روی آن تمرکز داریم) را قادر می‌سازند کارآیی، دسترسی‌پذیری، استقلال و نوآوری بیشتری داشته باشند.

داده‌ی زیاد مزیت نیست

قبل از این‌که وارد بحث اصلی شویم، مشکل تکیه بر الگوریتم‌هایی را توضیح می‌دهیم که به صورت فزاینده نیاز بیشتر و بیشتری به داده ها پیدا می‌کنند. مدل‌های مبتنی بر هوش مصنوعی بدون برنامه‌نویسی آشکار، از طریق فرآیند آزمون و خطا و بر اساس مجموعه‌ای از داده ها آموزش می‌بینند. به صورت تئوری، هرچه تعداد داده ها بیشتر باشد (حتی اگر بخش عمده‌ی آن‌ها به چشم غیرمسلح تفاوتی با هم نداشته باشند)، مدل عملکرد بهتر و دقیق‌تری خواهد داشت.

بعد از تحول دیجیتالی شرکت‌ها، بسیاری از صنایع (همچون امنیت سایبری) به منظور دسترسی به دقت بیشتر و کاهش نرخ مثبت‌های کاذب، بر حجم بی‌سابقه‌ای از داده ها تکیه کردند و این امر را یک نقطه‌قوت می‌دانستند. اما ادامه‌ی این رویه، چالش‌های جدیدی را در پی داشته است:

محاسبات رکن اصلی هوش مصنوعی

محاسبات رکن اصلی هوش مصنوعی شده است

یکی از بزگ‌ترین نگرانی‌ها این است که پیشرفت‌های پژوهشی و تجربی هوش مصنوعی (که به شدت به دیتاست‌های بزرگ و زیرساخت‌های محاسباتی مناسب وابسته هستند)، به دلیل محدودیت‌های محاسباتی و حافظه‌ای با مانع مواجه می‌شوند. علاوه بر این، باید به هزینه‌های مالی و محیط زیستی ناشی از محاسبات سنگین نیز توجه داشت.

شاید با ادامه‌ی همین رویه، به چند کشف عظیم و نوآورانه‌ی دیگر در هوش مصنوعی برسیم؛ اما به مرور زمان این پیشرفت و توسعه آهسته‌تر خواهد شد. تمایل جامعه‌ی علوم داده به مدل‌های جدیدی که نیاز به داده های فراوان و محاسبات سنگین دارند (همچون مدل‌های بزرگ‌مقیاس حوزه‌ی پردازش زبان طبیعی) را باید به عنوان یک هشدار در نظر گرفت.

پژوهش‌های OpenAI نشان می‌دهند که جامعه‌ی علوم داده در دستیابی به اهداف موجود عملکرد موفقی داشته است، اما برای پیش‌برد و توسعه‌ی بیشتر به هزینه و محاسبات چند برابری نیاز دارد. پژوهشگران دانشگاه MIT برآورد کرده‌اند سه سال پیشرفت الگوریتمی برابر با افزایش ده برابری در قدرت محاسباتی است. علاوه بر این، ساخت یک مدل هوش مصنوعی معمولی که بتواند تغییرات متغیر مورد مطالعه را در طی زمان تحمل کرده و بر مشکل underspecification (ناتوانی در تمیز پیش‌بین‌ها) نیز غلبه کند، معمولاً به چندین دور آموزش و تنظیم نیاز دارد که به معنی نیاز به منابع محاسباتی بیشتر است.

اگر تحت فشار گذاشتن هوش مصنوعی به معنی استفاده از منابع تخصصی‌تر (به قیمت هزینه‌های بیشتر) باشد، پس می‌توان گفت غول‌های فناوری بهای در صدر ماندن را پرداخت خواهند کرد؛ اما اکثر مؤسسات آکادمیک به ندرت خود را درگیر این توازن «ریسک بیشتر-سود بیشتر» می‌کنند. این مؤسسات ترجیح می‌دهند به دنبال فناوری‌های به صرفه باشند یا حوزه‌های پژوهشی مربوطه را دنبال کنند. محدودیت‌های چشمگیر محاسباتی، تأثیری بازدارنده روی پژوهشگران دانشگاهی داشته است، و باعث شده تمایلی به توسعه‌ی بیشتر در هوش مصنوعی نداشته باشند.

کلان‌داده ها می‌تواند نقشی گمراه‌کننده داشته باشند

حتی اگر هدف و معماری مدل هوش مصنوعی را به خوبی تعریف و طراحی، و داده هایی مرتبط هم جمع‌آوری، ساماندهی و آماده‌سازی کرده باشید، هیچ تضمینی وجود ندارد که مدل به نتایج مفید و عملیاتی دست یابد. حتی اگر طی فرآیند آموزش از داده های اضافی نیز استفاده شود، مدل همچنان ممکن است همبستگی‌هایی کاذب و گمراه‌کننده بین متغیرهای مختلف تشخیص دهد. ارتباط میان این متغیرها شاید از نظر آماری معنادار باشد، اما این رابطه، لزوماً علَی نیست و در نتیجه شاخص مفیدی برای پیش‌بینی به شمار نمی‌رود.

من این مسئله را در حوزه‌ی امنیت سایبری مشاهده کرده‌ام؛ آن‌چه در این حوزه متداول است، استفاده از حداکثر تعداد ویژگی‌های ممکن به منظور تولید مکانیزم‌های تشخیص، تنظیمات امنیتی و فرآیندهای احراز هویت بهتر و قوی‌تر است. اما همبستگی‌های کاذب باعث می‌شوند همسبتگی‌هایی که واقعاً اهمیت دارند، نادیده گرفته شوند.

روند پیشرفت همچنان خطی است

این واقعیت که مدل‌های بزرگ که نیاز زیادی به داده دارند، تحت شرایط خاص عملکرد بسیار خوبی دارند (به دلیل تقلید از محتوایی که توسط انسان‌ها تولید شده یا با پیشی گرفتن از برخی قابلیت‌های تشخیص و بازشناسی انسانی) می‌تواند گمراه‌کننده باشد. به همین دلیل، متخصص علوم داده نمی‌تواند ببیند پژوهش‌های کاربردی هوش مصنوعی به نوعی فقط حاصل رشد خطی قابلیت‌هایی هستند که پیش از این وجود داشته‌اند، و در واقع هیچ پیشرفت واقعی رخ نداده است (که برای مثال به سازمان‌ها کمک کند سیستم‌ها و شبکه‌های خود را ایمن‌تر کنند).

مدل‌های یادگیری عمیق غیرنظارت‌شده که از دیتاست‌های بزرگ تغذیه می‌کنند می‌توانند طی چند سال (به خصوص از طریق شبکه‌های یادگیری انتقالی و شبکه های مولد تخاصمی یا GAN) به نتایجی چشمگیر برسند. اما حتی با وجود پیشرفت‌های حوزه‌ی عصبی-نمادین Neuro-symbolic هم مدل‌های مبتنی بر هوش مصنوعی با قابلیت‌هایی همچون بینش شبه‌انسانی، تصور، استدلال بالا به پایین (کل به جزء) و یا هوش مصنوعی عمومی (AGI) فاصله دارند؛ این قابلیت‌ها هستند که در مسائل اساسی جدید و گوناگون و همچنین ارتقای امنیت هنگام رویارویی با حملات تخاصمیِ پیچیده و پویا مفید هستند.

نگرانی‌های مربوط به حریم خصوصی افراد در حال افزایش است

مورد دیگر مربوط به جمع‌آوری، ذخیره‌سازی و استفاده از حجم بالا و گسترده‌ای داده (که شامل داده های تولیدشده توسط کاربران نیز می‌باشد) است. دسترسی و استفاده از این داده ها در برنامه‌های امنیت سایبری مجاز است، اما از طرفی هم ملاحظات و نگرانی‌‌های زیادی در مورد حریم خصوصی و موارد قانونی وجود دارد. پیش از این ادعاهایی مطرح شده بود مبنی بر این‌که داده های حوزه‌ی امنیت سایبری، اطلاعات شخصی قابل شناسایی (PII) را در بر نمی‌گیرند، اما این موضوع اکنون رد شده است. زیرا ارتباط قوی بین هویت افراد و دنیای دیجیتال، معنی قانونی PII (برای مثال حتی آدرس IP) را تغییر داده است.

استفاده از داده های کم

من چطور به این مبحث (استفاده از داده های کم) علاقه‌مند شدم؟

به منظور غلبه بر مشکلاتی که در قسمت قبل بیان کردیم، به خصوص در حوزه‌ی امنیت سایبری، ابتدایی‌ترین و مهم‌ترین کار هم‌راستا و هماهنگ کردن انتظارات است.

پیدایش ناگهانی کووید-19 نشان داد مدل‌های هوش مصنوعی در سازگاری با شرایط غیرمنتظره، غیرقابل پیش‌بینی و موارد استثنائی (برای مثال رواج دورکاری در کل دنیا) مشکل دارند، به خصوص مدل‌های حوزه‌ی سایبری که بسیاری از دیتاست‌های آن ذاتاً ناهنجار  بوده یا واریانس بالایی دارند. همه‌گیری کووید-19 اهمیت بیان دقیق و واضح هدف مدل و آماده‌سازی کافی داده های آموزشی را خاطرنشان کرد. این گام‌ها به اندازه‌ی جمع‌آوری نمونه‌های بیشتر (برای آموزش مدل) یا حتی انتخاب و پالایش معماری مدل اهمیت دارند.

این روزها، صنعت امنیت سایبری باید بپذیرد که اوردوز داده یا infodemic سودی ندارد، و به همین دلیل باید وارد مرحله‌ی جدیدی از بررسی و تنظیم پارامترها Recalibration شود. رویکردهایی که در ادامه توضیح می‌دهیم را می‌توان به عنوان راهنمایی بر چگونگی تسریع فرآیند بررسی و تنظیم پارامترها در نظر گرفت. این دستورالعمل‌ها برای سایر زمینه‌های هوش مصنوعی (به جز امنیت سایبری) نیز معتبر هستند.

اولویت با کارآیی الگوریتمی است

شرکت‌ها و پژوهشگران هوش مصنوعی با پیروی از قانون مور Moore’s law در تلاش‌اند کارآیی الگوریتمی را از طریق آزمایش روش‌ها و فناوری‌های نوآورانه افزایش دهند. این رویکردها (از کاربرد ترنسفرمرهای Switch گرفته تا اصلاح روش‌های یادگیری few shots, one-shot و less-than-one-shot) در حال حاضر تنها در مسائل خاصی کاربرد دارند.

رویکرد اول، ارتقای قابلیت‌های شناختی و فیزیکی انسانی

اگر مدل‌های هوش مصنوعی را تنها به تقویت رویه‌های حرفه‌ای امنیت اختصاص دهیم و امکان همکاری انسان‌ها و هوش مصنوعی را فراهم کنیم، قادر خواهیم بود مدل‌ها را در برنامه‌های امنیتی بسیار اختصاصی شده و دقیق اجرا کنیم. این همکاری از طریق مداخلات انسانی و یا الگوریتم‌های قانون-محور (که قضاوت انسانی را hard-code می‌کنند) امکان‌پذیر است؛ به همین دلیل است که فروشنده‌های خدمات امنیتی، به جای این‌که قضاوت انسانی را کاملاً از چرخه حذف کنند، به صورت فزاینده به راهکارهای مبتنی بر هوش مصنوعی روی می‌آورند که انسان‌ها را در این چرخه و راهکار نگه می‌دارد.

قانون‌گذاران نیز به این رویکرد علاقه دارند، زیرا به دنبال ویژگی‌های انسانی (همچون مسئولیت‌پذیری، قابلیت چشم‌پوشی از اشتباهات ناچیز) و مکانیزم‌هایی هستند که شکست آن‌ها عواقب سنگینی نداشته باشد (به خصوص هنگام کار با فرآیندهای پیچیده، خودکار و جعبه‌ی سیاه).

برخی از فروشندگان سعی دارند روش‌های یادگیری فعال یا یادگیری تقویتی ارائه دهند که برای غنی‌سازی مدل‌های پایه از تخصص انسانی استفاده و بدین ترتیب پیوندی بین ماشین‌ها و انسان‌ها برقرار می‌کنند. در همین راستا، پژوهشگران نیز سعی دارند به مدل‌های هوش مصنوعی بیاموزند تصمیم‌گیری را به متخصصان انسانی واگذار کنند و از این طریق در حال تقویت و اصلاح تعامل بین انسان-دستگاه هستند.

سخت‌افزارهای پیشرفته

استفاده از سخت‌افزارهای پیشرفته

هنوز واضح نیست که آیا معماری بهینه‌سازی‌شده‌ی تراشه‌ها و پردازشگرها در کنار فناوری‌ها و چارچوب‌های برنامه‌نویسی یا حتی انواع سیستم‌های کامپیوتری، می‌تواند به نیاز محاسباتی رو به رشد هوش مصنوعی پاسخگو باشد یا خیر. برخی از این فناوری‌های بنیادین مختص کاربردهای هوش مصنوعی ساخته شده‌اند و به خوبی بین بخش نرم‌افزاری و سخت‌افزاری ارتباط برقرار می‌کنند؛ این فناوری‌ها، در حال حاضر، بیشتر از همیشه توان انجام محاسبات همزمان، ضرب‌های ماتریسی و پردازش‌های نموداری Graph processing را دارند.

علاوه بر این موارد، نمونه‌های فضای ابری که به صورت مشخص و هد‌ف‌دار برای محاسبات هوش مصنوعی ساخته شده‌اند، طرحواره‌های یادگیری یکپارچه شده، و فناوری‌های پیش‌قدم (تراشه‌های نورومورفیک Neuromorphic chips، محاسبات کوآنتومی Quantum computing و غیره) نیز می‌توانند نقش مهمی در این مسیر ایفا کنند. در هر صورت به نظر نمی‌رسد این پیشرفت‌ها به خودی خود نیاز به بهینه‌سازی الگوریتمی (که می‌تواند از بخش سخت‌افزاری پیشی بگیرد) را برآورده کنند. با این حال، باید به نقش حیاتی آن‌ها در مسیر رشد هوش مصنوعی اذعان کرد.

نقاط قوت حوزه داده

رویه‌ی قدیم علوم داده، تا به اکنون، مبتنی بر این اصل بوده است که هرچه داده‌ی بیشتری داشته باشیم، بهتر است. اما اکنون به جنبه‌ی منفی مدل‌هایی که نیاز به داده های زیاد دارند نیز آگاه شده‌ایم؛ معایبی که به نظر می‌رسد از مزایای آن پیشی می‌گیرند.

شرکت‌ها، فروشندگان امنیت سایبری و سایر متخصصان داده دلیل و انگیزه‌ی زیادی دارند تا در جمع‌آوری، ذخیره‌سازی و مصرف داده، راهی منظم‌ در پیش گیرند. همانطور که در این نوشتار توضیح دادیم، یکی از دلایل این امر به امکان ارتقای دقت و حساسیت مدل‌های هوش مصنوعی و همچنین بهبود ملاحظات مربوط به حریم خصوصی برمی‌گردد. سازمان‌هایی که از این رویکرد (رویکردی که بر استفاده از داده های کم تأکید دارد) استقبال می‌کنند و از این نظر برای خود محدودیت‌هایی قائل می‌شوند، در بلندمدت می‌توانند به دستاوردهایی نوآورانه، کاربردی و به‌ صرفه در عرصه‌ی هوش مصنوعی دست یابند.

میانگین امتیاز / 5. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
[wpforms id="48325"]