کنترل مدل: فهرستی از اقدامات لازم برای تولید هوش مصنوعی ایمن
تولید هوش مصنوعی ایمن کار بسیار دشواری است و پژوهشهای انجام شده منعکس کننده این واقعیتاند. نتایج یکی از نظرسنجیهای NewVantage Partners حاکی از این است که از 8/98% درصد شرکتهای سرمایهگذار، 8/64% درصد آنها بیش از 50 میلیون دلار در دادههای کلان و هوش مصنوعی سرمایه گذاری میکنند. با این حال تنها 6/14% آنها از ظرفیتهای هوش مصنوعی در تولید انبوه استفاده کردهاند. لذا، این سوال مطرح میشود که چه چیزی مانع بهرهبرداریِ بنگاهها از تواناییهای کامل هوش مصنوعی و سرمایه گذاری در یادگیری ماشین میشود؟
ممکن است مبتدیان آشنایی چندانی با این حوزه نداشته باشند. از منظر صنعت، باید به 40 سال فعالیت در زمینه ایجاد بهترین روشها و ابزارهای ذخیرهسازی، نسخهسازی، همکاری، امنیت، آزمایش و ساخت کد منبع نرمافزار اشاره کرد. در عوض، تجربه ما در استفاده از هوش مصنوعی برای موارد یاد شده تنها به چهار سال میرسد. این شکاف بسیار عمیق است، و باید به سرعت پر شود تا نوآوری هوش مصنوعی همانند چند سال گذشته به سرعت توسعه یابد.
سابقه انجام چنین اقداماتی را پیشتر در کارنامه داریم. صنعت نرمافزار چندین نسل از ابزارها و روشها را برای کنترل کد نرم افزار، از کنترل پیکربندی، همکاری، فرآیندهای آزمون و فرآیندهای ساخت، گرفته تا مخازن کد و مدیریت فراداده، تجربه کرده است. اکنون در ابتدای راه قرار داریم و به دنبال کشف این موارد برای مدلهای یادگیری ماشین هستیم. این گام مهم نیز به مانند هر فناوری جدیدی دردسرهای خاص خود را دارد. در حال حاضر فقدان سیستمی مناسب در کنترل هوش مصنوعی به بهرهوری تیمهای علوم داده آسیب رسانده است و از استقرار و بهرهبرداری ایمنِ مدلها در فرآیند تولید جلوگیری کرده است.
سازگاری با محیط عملیاتی
یکی از بزرگترین چالشهای تجاریسازی هوش مصنوعی و مدلهای یادگیری ماشین به غیر از تولید هوش مصنوعی ایمن، سازگاری با محیط عملیاتی منحصر به فرد و گاه پیچیده آنها است. علاوه بر این، سازمانها باید از چالشهای قانونی و چالشهای پذیرش هوش مصنوعی که همراه با پیادهسازی فناوریها بروز پیدا میکنند آگاهی داشته باشند. به گزارش بلومبرگ، کمیسیون اروپا اقداماتی را پیشنهاد کرده است که به موجب آن، استفاده از هوش مصنوعی پرخطر در اتحادیه اروپا ممنوع خواهد شد و سایر موارد با محدودیتهای جدیتری روبرو خواهند بود و برای شرکتهای قانونشکن جریمههای سنگینی در نظر گرفته شده است. با ادامه گسترش هوش مصنوعی، شاهد تدوین قوانین بیشتری برای کنترل آن خواهیم بود و این قوانین بخشی از معادله تجاریسازی مدلهای هوش مصنوعی خواهند بود.
زمانی که سخن از تجربیات مستقیم در حوزه بهداشت و درمان و علوم زیستی باشد، رعایت استانداردها و الزامات سختگیرانه در مواردی که زندگی و سلامت انسان در معرض خطر باشد اهمیت بیشتری پیدا میکند. خوشبختانه، چندین روش بسیار خوب و کاملاً پذیرفته شده برای کنترل مدل وجود دارد. علاوه بر آن ابزارهایی در دسترس هستند که میتوان با کمک آنها این روشها را پیاده نمود. این ابزارها شرایطی در اختیار تیمها قرا میدهند تا پا را فراتر از محیط آزمایش گذاشته و مدلها را با موفقیت مستقر کنند. در ادامه به طور مختصر فهرستی از موارد لازم برای تولید هوش مصنوعی ایمن را ارائه میکنیم.
یکی از مهمترین مولفهها لزوم ایجاد جستوجو پذیری و همکاری بهتر میان گروههای مرتبط با هوش مصنوعی است. برای مثال، میتوان از ذخیره خصوصیات مدلسازی در فهرستی قابل جستوجو، از جمله نوتبوکها، دیتاستها، سنجشهای پایانی، اَبَرپارامترها و دیگر اَبَردادهها نام برد. تکرارپذیری و به اشتراکگذاری نتایج آزمایشها بین تیمهای علم داده، برای افرادی که قصد دارند پروژههای خود را به مرحله تولید برسانند زمینه دیگری فراهم میکند.
انجام آزمایشهای دقیق و تکرار آنها یکی دیگر از معیارهای مهم کنترل هوش مصنوعی است. با این روش میتوان اطمینان حاصل کرد که رفتار مدل در مراحل تحقیق و تولید یکسان است. نکاتی که تمام سازمانهای تولیدکننده هوش مصنوعی باید مد نظر قرار دهند، شامل نسخهبندی مدلهایی است که مرحله آزمایش را پشتسر گذاشتهاند و قرار است به بازار عرضه شوند؛ همچنین، باید این نسخهها از لحاظ دقت، سوگیری و ثَبات بررسی شوند و اعتبارسنجی مدلها پیش از عرضه در منطقه یا جمعیت جدید صورت گیرد.
امنیت و انطباق
نکته مهم دیگری که باید از همان ابتدا در یک راهکار هوش مصنوعی موفق لحاظ شود، امنیت و انطباق است.
کنترل و دسترسیِ مبتنی بر سِمَت و گردشکار تأییدی برای عرضه مدل، و ذخیره و تأمین تمام اَبَردادههای مورد نیاز برای داشتن گزارشی کامل از وقایع تنها موارد معدودی از اقدامات امنیتی است که باید قبل از تایید مدل برای انبوهسازی اعمال شوند. این موارد به ویژه در صنایعی که تحت نظارت شدید هستند، مانند بهداشت و درمان و امور مالی، اهمیت ویژهای دارد.
شرکتها برای تولید مدلهای هوش مصنوعی واقعاً تحت فشار هستند، از نظر مالی، رقابتی، عملیاتی، و با ادامه مسابقه تسلیحاتی هوش مصنوعی، این فشار بیشتر نیز میشود. با این حال لازم است بنگاهها برای کاهش سوگیریها و اشتباهات خطرناک احتمالی در قبال فعالیت خود در حوزه هوش مصنوعی مسئولیتپذیر باشند.