تولید هوش مصنوعی ایمن
تحلیل بازارهای هوش مصنوعیکارآفرینیکسب‌و‌کار

کنترل مدل: فهرستی از اقدامات لازم برای تولید هوش مصنوعی ایمن

    0

    تولید هوش مصنوعی ایمن کار بسیار دشواری است و پژوهش‌های انجام شده منعکس کننده این واقعیت‌اند. نتایج یکی از نظرسنجی‌های NewVantage Partners حاکی از این است که از ۸/۹۸% درصد شرکت‌های سرمایه‌گذار، ۸/۶۴% درصد آنها بیش از ۵۰ میلیون دلار در داده‌های کلان و هوش مصنوعی سرمایه گذاری می‌کنند. با این حال تنها ۶/۱۴% آنها از ظرفیت‌های هوش مصنوعی در تولید انبوه استفاده کرده‌اند. لذا، این سوال مطرح می‌شود که چه چیزی مانع بهره‌برداریِ بنگاه‌ها از توانایی‌های کامل هوش مصنوعی و سرمایه گذاری‌ در یادگیری ماشین می‌شود؟

    ممکن است مبتدیان آشنایی چندانی با این حوزه نداشته باشند. از منظر صنعت، باید به ۴۰ سال فعالیت در زمینه‌ ایجاد بهترین روش‌ها و ابزارهای ذخیره‌سازی، نسخه‌سازی، همکاری، امنیت، آزمایش و ساخت کد منبع نرم‌افزار اشاره کرد. در عوض، تجربه ما در استفاده از هوش مصنوعی برای موارد یاد شده تنها به چهار سال می‌رسد. این شکاف بسیار عمیق است، و باید به سرعت پر شود تا نوآوری هوش مصنوعی همانند چند سال گذشته به سرعت توسعه یابد.

    تولید هوش مصنوعی ایمن

    سابقه انجام چنین اقداماتی را پیشتر در کارنامه داریم. صنعت نرم‌افزار چندین نسل از ابزارها و روش‌ها را برای کنترل کد نرم افزار، از کنترل پیکربندی، همکاری، فرآیندهای آزمون و فرآیندهای ساخت، گرفته تا مخازن کد و مدیریت فراداده، تجربه کرده است. اکنون در ابتدای راه قرار داریم و به دنبال کشف این موارد برای مدل‌های یادگیری ماشین هستیم. این گام مهم نیز به مانند هر فناوری جدیدی دردسرهای خاص خود را دارد. در حال حاضر فقدان سیستمی مناسب در کنترل هوش مصنوعی به بهره‌وری تیم‌های علوم داده آسیب رسانده است و از استقرار و بهره‌برداری ایمنِ مدل‌ها در فرآیند تولید جلوگیری کرده ‌است.

    سازگاری با محیط عملیاتی

    یکی از بزرگ‌ترین چالش‌های تجاری‌سازی هوش مصنوعی و مدل‌های یادگیری ماشین به غیر از تولید هوش مصنوعی ایمن، سازگاری با محیط عملیاتی منحصر به فرد و گاه پیچیده آنها است. علاوه بر این، سازمان‌ها باید از چالش‌های قانونی و چالش‌های پذیرش هوش مصنوعی که همراه با پیاده‌سازی فناوری‌ها بروز پیدا می‌کنند آگاهی داشته باشند. به گزارش بلومبرگ، کمیسیون اروپا اقداماتی را پیشنهاد کرده است که به موجب آن، استفاده از هوش مصنوعی پرخطر در اتحادیه اروپا ممنوع خواهد شد و سایر موارد با محدودیت‌های جدی‌تری روبرو خواهند بود و برای شرکت‌های قانون‌شکن جریمه‌های سنگینی در نظر گرفته‌ شده است. با ادامه گسترش هوش مصنوعی، شاهد تدوین قوانین بیشتری برای کنترل آن خواهیم بود و این قوانین بخشی از معادله تجاری‌سازی مدل‌های هوش مصنوعی خواهند بود.

    زمانی که سخن از تجربیات مستقیم در حوزه بهداشت و درمان و علوم زیستی باشد، رعایت استانداردها و الزامات سختگیرانه در مواردی که زندگی و سلامت انسان در معرض خطر باشد اهمیت بیشتری پیدا می‌کند. خوشبختانه، چندین روش بسیار خوب و کاملاً پذیرفته شده برای کنترل مدل وجود دارد. علاوه بر آن ابزارهایی در دسترس هستند که می‌توان با کمک آنها این روش‌ها را پیاده نمود. این ابزارها شرایطی در اختیار تیم‌ها قرا می‌دهند تا پا را فراتر از محیط آزمایش گذاشته و مدل‌ها را با موفقیت مستقر کنند. در ادامه به طور مختصر فهرستی از موارد لازم برای تولید هوش مصنوعی ایمن را ارائه می‌کنیم.

    یکی از مهم‌ترین مولفه‌ها لزوم ایجاد جست‌وجو پذیری و همکاری بهتر میان گروه‌های مرتبط با هوش مصنوعی است. برای مثال، می‌توان از ذخیره خصوصیات مدل‌سازی در فهرستی قابل جست‌وجو، از جمله نوت‌بوک‌ها، دیتاست‌ها، سنجش‌های پایانی، اَبَرپارامترها و دیگر اَبَرداده‌ها نام برد. تکرارپذیری و به اشتراک‌گذاری نتایج آزمایش‌ها بین تیم‌های علم داده، برای افرادی که قصد دارند پروژه‌های خود را به مرحله تولید برسانند زمینه دیگری فراهم می‌کند.

    انجام آزمایش‌های دقیق و تکرار آنها یکی دیگر از معیار‌های مهم کنترل هوش مصنوعی است. با این روش می‌توان اطمینان حاصل کرد که رفتار مدل‌ در مراحل تحقیق و تولید یکسان است. نکاتی که تمام سازمان‌های تولیدکننده هوش مصنوعی باید مد نظر قرار دهند، شامل نسخه‌بندی مدل‌هایی است که مرحله آزمایش را پشت‌سر گذاشته‌اند و قرار است به بازار عرضه شوند؛ همچنین، باید این نسخه‌ها از لحاظ دقت، سوگیری و ثَبات بررسی شوند و اعتبارسنجی مدل‌ها پیش از عرضه در منطقه یا جمعیت جدید صورت گیرد.

    امنیت و انطباق

    نکته مهم دیگری که باید از همان ابتدا در یک راهکار هوش مصنوعی موفق لحاظ شود، امنیت و انطباق است.

    کنترل و دسترسیِ مبتنی بر سِمَت و گردش‌کار تأییدی برای عرضه مدل، و ذخیره و تأمین تمام اَبَرداده‌های مورد نیاز برای داشتن گزارشی کامل از وقایع تنها موارد معدودی از اقدامات امنیتی است که باید قبل از تایید مدل برای انبوه‌سازی اعمال شوند. این موارد به ویژه در صنایعی که تحت نظارت شدید هستند، مانند بهداشت و درمان و امور مالی، اهمیت ویژه‌ای دارد.

    شرکت‌ها برای تولید مدل‌های هوش مصنوعی واقعاً تحت فشار هستند، از نظر مالی، رقابتی، عملیاتی، و با ادامه مسابقه تسلیحاتی هوش مصنوعی، این فشار بیشتر نیز می‌شود. با این حال لازم است بنگاه‌ها برای کاهش سوگیری‌ها و اشتباهات خطرناک احتمالی در قبال فعالیت خود در حوزه هوش مصنوعی مسئولیت‌پذیر باشند.

    بررسی هوش مصنوعی در حوزه پزشکی در وبینار نقد و تحلیل هوش مصنوعی از منظر فلسفه پزشکی

    مقاله قبلی

    عملکرد باورنکردنی هوش مصنوعی در المپیک توکیو ؛ از لباس‌های خنک‌کننده تا ربات‌های پشتیبان

    مقاله بعدی

    شما همچنین ممکن است دوست داشته باشید

    نظرات

    پاسخ دهید

    نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *