پیشرفت هوش مصنوعی به استفاده کمتر، و نه بیشتر، از داده ها بستگی دارد
به عنوان فعالان جامعهی علوم داده، شاهد آغاز یک infodemic (فزونباری اطلاعاتی) هستیم: جریانی از فزونی اطلاعات صحیح و غیرصحیح که داده ها را به جای یک ابزار کمکی، به یک بار اضافی تبدیل کرده است. جریان کنونی به سمت و سوی مدلهایی از هوش مصنوعی پیش میرود که نیاز به داده های فراوان و محاسبات سنگین دارند. این امر منجر به نارکارآمدی و عوارض منفی دیگری خواهد شد که در قسمتهای بعدی این نوشتار به آنها خواهیم پرداخت.
به منظور اجتناب از پیامدهای منفی جدی، خود جامعهی علوم داده باید به فکر اعمال محدودیتهایی از نظر داده ها و منابع محاسباتی باشد.
کاربردهای هوش مصنوعی با استفاده از حداقل داده های ممکن، صنایع گوناگون مبتنی بر هوش مصنوعی (از جمله امنیت سایبری که در این نوشتار بیشتر روی آن تمرکز داریم) را قادر میسازند کارآیی، دسترسیپذیری، استقلال و نوآوری بیشتری داشته باشند.
دادهی زیاد مزیت نیست
قبل از اینکه وارد بحث اصلی شویم، مشکل تکیه بر الگوریتمهایی را توضیح میدهیم که به صورت فزاینده نیاز بیشتر و بیشتری به داده ها پیدا میکنند. مدلهای مبتنی بر هوش مصنوعی بدون برنامهنویسی آشکار، از طریق فرآیند آزمون و خطا و بر اساس مجموعهای از داده ها آموزش میبینند. به صورت تئوری، هرچه تعداد داده ها بیشتر باشد (حتی اگر بخش عمدهی آنها به چشم غیرمسلح تفاوتی با هم نداشته باشند)، مدل عملکرد بهتر و دقیقتری خواهد داشت.
بعد از تحول دیجیتالی شرکتها، بسیاری از صنایع (همچون امنیت سایبری) به منظور دسترسی به دقت بیشتر و کاهش نرخ مثبتهای کاذب، بر حجم بیسابقهای از داده ها تکیه کردند و این امر را یک نقطهقوت میدانستند. اما ادامهی این رویه، چالشهای جدیدی را در پی داشته است:
محاسبات رکن اصلی هوش مصنوعی شده است
یکی از بزگترین نگرانیها این است که پیشرفتهای پژوهشی و تجربی هوش مصنوعی (که به شدت به دیتاستهای بزرگ و زیرساختهای محاسباتی مناسب وابسته هستند)، به دلیل محدودیتهای محاسباتی و حافظهای با مانع مواجه میشوند. علاوه بر این، باید به هزینههای مالی و محیط زیستی ناشی از محاسبات سنگین نیز توجه داشت.
شاید با ادامهی همین رویه، به چند کشف عظیم و نوآورانهی دیگر در هوش مصنوعی برسیم؛ اما به مرور زمان این پیشرفت و توسعه آهستهتر خواهد شد. تمایل جامعهی علوم داده به مدلهای جدیدی که نیاز به داده های فراوان و محاسبات سنگین دارند (همچون مدلهای بزرگمقیاس حوزهی پردازش زبان طبیعی) را باید به عنوان یک هشدار در نظر گرفت.
پژوهشهای OpenAI نشان میدهند که جامعهی علوم داده در دستیابی به اهداف موجود عملکرد موفقی داشته است، اما برای پیشبرد و توسعهی بیشتر به هزینه و محاسبات چند برابری نیاز دارد. پژوهشگران دانشگاه MIT برآورد کردهاند سه سال پیشرفت الگوریتمی برابر با افزایش ده برابری در قدرت محاسباتی است. علاوه بر این، ساخت یک مدل هوش مصنوعی معمولی که بتواند تغییرات متغیر مورد مطالعه را در طی زمان تحمل کرده و بر مشکل underspecification (ناتوانی در تمیز پیشبینها) نیز غلبه کند، معمولاً به چندین دور آموزش و تنظیم نیاز دارد که به معنی نیاز به منابع محاسباتی بیشتر است.
اگر تحت فشار گذاشتن هوش مصنوعی به معنی استفاده از منابع تخصصیتر (به قیمت هزینههای بیشتر) باشد، پس میتوان گفت غولهای فناوری بهای در صدر ماندن را پرداخت خواهند کرد؛ اما اکثر مؤسسات آکادمیک به ندرت خود را درگیر این توازن «ریسک بیشتر-سود بیشتر» میکنند. این مؤسسات ترجیح میدهند به دنبال فناوریهای به صرفه باشند یا حوزههای پژوهشی مربوطه را دنبال کنند. محدودیتهای چشمگیر محاسباتی، تأثیری بازدارنده روی پژوهشگران دانشگاهی داشته است، و باعث شده تمایلی به توسعهی بیشتر در هوش مصنوعی نداشته باشند.
کلانداده ها میتواند نقشی گمراهکننده داشته باشند
حتی اگر هدف و معماری مدل هوش مصنوعی را به خوبی تعریف و طراحی، و داده هایی مرتبط هم جمعآوری، ساماندهی و آمادهسازی کرده باشید، هیچ تضمینی وجود ندارد که مدل به نتایج مفید و عملیاتی دست یابد. حتی اگر طی فرآیند آموزش از داده های اضافی نیز استفاده شود، مدل همچنان ممکن است همبستگیهایی کاذب و گمراهکننده بین متغیرهای مختلف تشخیص دهد. ارتباط میان این متغیرها شاید از نظر آماری معنادار باشد، اما این رابطه، لزوماً علَی نیست و در نتیجه شاخص مفیدی برای پیشبینی به شمار نمیرود.
من این مسئله را در حوزهی امنیت سایبری مشاهده کردهام؛ آنچه در این حوزه متداول است، استفاده از حداکثر تعداد ویژگیهای ممکن به منظور تولید مکانیزمهای تشخیص، تنظیمات امنیتی و فرآیندهای احراز هویت بهتر و قویتر است. اما همبستگیهای کاذب باعث میشوند همسبتگیهایی که واقعاً اهمیت دارند، نادیده گرفته شوند.
روند پیشرفت همچنان خطی است
این واقعیت که مدلهای بزرگ که نیاز زیادی به داده دارند، تحت شرایط خاص عملکرد بسیار خوبی دارند (به دلیل تقلید از محتوایی که توسط انسانها تولید شده یا با پیشی گرفتن از برخی قابلیتهای تشخیص و بازشناسی انسانی) میتواند گمراهکننده باشد. به همین دلیل، متخصص علوم داده نمیتواند ببیند پژوهشهای کاربردی هوش مصنوعی به نوعی فقط حاصل رشد خطی قابلیتهایی هستند که پیش از این وجود داشتهاند، و در واقع هیچ پیشرفت واقعی رخ نداده است (که برای مثال به سازمانها کمک کند سیستمها و شبکههای خود را ایمنتر کنند).
مدلهای یادگیری عمیق غیرنظارتشده که از دیتاستهای بزرگ تغذیه میکنند میتوانند طی چند سال (به خصوص از طریق شبکههای یادگیری انتقالی و شبکه های مولد تخاصمی یا GAN) به نتایجی چشمگیر برسند. اما حتی با وجود پیشرفتهای حوزهی عصبی-نمادین Neuro-symbolic هم مدلهای مبتنی بر هوش مصنوعی با قابلیتهایی همچون بینش شبهانسانی، تصور، استدلال بالا به پایین (کل به جزء) و یا هوش مصنوعی عمومی (AGI) فاصله دارند؛ این قابلیتها هستند که در مسائل اساسی جدید و گوناگون و همچنین ارتقای امنیت هنگام رویارویی با حملات تخاصمیِ پیچیده و پویا مفید هستند.
نگرانیهای مربوط به حریم خصوصی افراد در حال افزایش است
مورد دیگر مربوط به جمعآوری، ذخیرهسازی و استفاده از حجم بالا و گستردهای داده (که شامل داده های تولیدشده توسط کاربران نیز میباشد) است. دسترسی و استفاده از این داده ها در برنامههای امنیت سایبری مجاز است، اما از طرفی هم ملاحظات و نگرانیهای زیادی در مورد حریم خصوصی و موارد قانونی وجود دارد. پیش از این ادعاهایی مطرح شده بود مبنی بر اینکه داده های حوزهی امنیت سایبری، اطلاعات شخصی قابل شناسایی (PII) را در بر نمیگیرند، اما این موضوع اکنون رد شده است. زیرا ارتباط قوی بین هویت افراد و دنیای دیجیتال، معنی قانونی PII (برای مثال حتی آدرس IP) را تغییر داده است.
من چطور به این مبحث (استفاده از داده های کم) علاقهمند شدم؟
به منظور غلبه بر مشکلاتی که در قسمت قبل بیان کردیم، به خصوص در حوزهی امنیت سایبری، ابتداییترین و مهمترین کار همراستا و هماهنگ کردن انتظارات است.
پیدایش ناگهانی کووید-19 نشان داد مدلهای هوش مصنوعی در سازگاری با شرایط غیرمنتظره، غیرقابل پیشبینی و موارد استثنائی (برای مثال رواج دورکاری در کل دنیا) مشکل دارند، به خصوص مدلهای حوزهی سایبری که بسیاری از دیتاستهای آن ذاتاً ناهنجار بوده یا واریانس بالایی دارند. همهگیری کووید-19 اهمیت بیان دقیق و واضح هدف مدل و آمادهسازی کافی داده های آموزشی را خاطرنشان کرد. این گامها به اندازهی جمعآوری نمونههای بیشتر (برای آموزش مدل) یا حتی انتخاب و پالایش معماری مدل اهمیت دارند.
این روزها، صنعت امنیت سایبری باید بپذیرد که اوردوز داده یا infodemic سودی ندارد، و به همین دلیل باید وارد مرحلهی جدیدی از بررسی و تنظیم پارامترها Recalibration شود. رویکردهایی که در ادامه توضیح میدهیم را میتوان به عنوان راهنمایی بر چگونگی تسریع فرآیند بررسی و تنظیم پارامترها در نظر گرفت. این دستورالعملها برای سایر زمینههای هوش مصنوعی (به جز امنیت سایبری) نیز معتبر هستند.
اولویت با کارآیی الگوریتمی است
شرکتها و پژوهشگران هوش مصنوعی با پیروی از قانون مور Moore’s law در تلاشاند کارآیی الگوریتمی را از طریق آزمایش روشها و فناوریهای نوآورانه افزایش دهند. این رویکردها (از کاربرد ترنسفرمرهای Switch گرفته تا اصلاح روشهای یادگیری few shots, one-shot و less-than-one-shot) در حال حاضر تنها در مسائل خاصی کاربرد دارند.
رویکرد اول، ارتقای قابلیتهای شناختی و فیزیکی انسانی
اگر مدلهای هوش مصنوعی را تنها به تقویت رویههای حرفهای امنیت اختصاص دهیم و امکان همکاری انسانها و هوش مصنوعی را فراهم کنیم، قادر خواهیم بود مدلها را در برنامههای امنیتی بسیار اختصاصی شده و دقیق اجرا کنیم. این همکاری از طریق مداخلات انسانی و یا الگوریتمهای قانون-محور (که قضاوت انسانی را hard-code میکنند) امکانپذیر است؛ به همین دلیل است که فروشندههای خدمات امنیتی، به جای اینکه قضاوت انسانی را کاملاً از چرخه حذف کنند، به صورت فزاینده به راهکارهای مبتنی بر هوش مصنوعی روی میآورند که انسانها را در این چرخه و راهکار نگه میدارد.
قانونگذاران نیز به این رویکرد علاقه دارند، زیرا به دنبال ویژگیهای انسانی (همچون مسئولیتپذیری، قابلیت چشمپوشی از اشتباهات ناچیز) و مکانیزمهایی هستند که شکست آنها عواقب سنگینی نداشته باشد (به خصوص هنگام کار با فرآیندهای پیچیده، خودکار و جعبهی سیاه).
برخی از فروشندگان سعی دارند روشهای یادگیری فعال یا یادگیری تقویتی ارائه دهند که برای غنیسازی مدلهای پایه از تخصص انسانی استفاده و بدین ترتیب پیوندی بین ماشینها و انسانها برقرار میکنند. در همین راستا، پژوهشگران نیز سعی دارند به مدلهای هوش مصنوعی بیاموزند تصمیمگیری را به متخصصان انسانی واگذار کنند و از این طریق در حال تقویت و اصلاح تعامل بین انسان-دستگاه هستند.
استفاده از سختافزارهای پیشرفته
هنوز واضح نیست که آیا معماری بهینهسازیشدهی تراشهها و پردازشگرها در کنار فناوریها و چارچوبهای برنامهنویسی یا حتی انواع سیستمهای کامپیوتری، میتواند به نیاز محاسباتی رو به رشد هوش مصنوعی پاسخگو باشد یا خیر. برخی از این فناوریهای بنیادین مختص کاربردهای هوش مصنوعی ساخته شدهاند و به خوبی بین بخش نرمافزاری و سختافزاری ارتباط برقرار میکنند؛ این فناوریها، در حال حاضر، بیشتر از همیشه توان انجام محاسبات همزمان، ضربهای ماتریسی و پردازشهای نموداری Graph processing را دارند.
علاوه بر این موارد، نمونههای فضای ابری که به صورت مشخص و هدفدار برای محاسبات هوش مصنوعی ساخته شدهاند، طرحوارههای یادگیری یکپارچه شده، و فناوریهای پیشقدم (تراشههای نورومورفیک Neuromorphic chips، محاسبات کوآنتومی Quantum computing و غیره) نیز میتوانند نقش مهمی در این مسیر ایفا کنند. در هر صورت به نظر نمیرسد این پیشرفتها به خودی خود نیاز به بهینهسازی الگوریتمی (که میتواند از بخش سختافزاری پیشی بگیرد) را برآورده کنند. با این حال، باید به نقش حیاتی آنها در مسیر رشد هوش مصنوعی اذعان کرد.
نقاط قوت حوزه داده
رویهی قدیم علوم داده، تا به اکنون، مبتنی بر این اصل بوده است که هرچه دادهی بیشتری داشته باشیم، بهتر است. اما اکنون به جنبهی منفی مدلهایی که نیاز به داده های زیاد دارند نیز آگاه شدهایم؛ معایبی که به نظر میرسد از مزایای آن پیشی میگیرند.
شرکتها، فروشندگان امنیت سایبری و سایر متخصصان داده دلیل و انگیزهی زیادی دارند تا در جمعآوری، ذخیرهسازی و مصرف داده، راهی منظم در پیش گیرند. همانطور که در این نوشتار توضیح دادیم، یکی از دلایل این امر به امکان ارتقای دقت و حساسیت مدلهای هوش مصنوعی و همچنین بهبود ملاحظات مربوط به حریم خصوصی برمیگردد. سازمانهایی که از این رویکرد (رویکردی که بر استفاده از داده های کم تأکید دارد) استقبال میکنند و از این نظر برای خود محدودیتهایی قائل میشوند، در بلندمدت میتوانند به دستاوردهایی نوآورانه، کاربردی و به صرفه در عرصهی هوش مصنوعی دست یابند.