تحقیقات هوش مصنوعی با بحران پاسخگویی دست و پنجه نرم میکند
غولهای دنیای فناوری پیشرفتهای خود را مدیون پروژههای تحقیقاتیاند و برای رسیدن به هر موفقیتی به تحقیق و پژوهش نیاز دارند. اما این روزها انگار مرز میان دستیابی به موفقیت واقعی و عرضه یک ویترین جذاب از محصولات برای بازاریابی، در حال کمرنگ شدن است.
ماه گذشته مجله نیچر مقالهای منتشر کرد که توسط 31 دانشمند و در پاسخ به مطالعه گوگل هلث نوشته شده بود. گوگل هلث اوایل سال جاری در این مجله مطالعهای را منتشر کرده بود که درباره آزمایشهای موفقیتآمیز هوش مصنوعی در زمینه سرطان پستان بود. در این آزمایشها، از فناوری هوش مصنوعی برای ردیابی نشانههای سرطان پستان در تصاویر پزشکی استفاده شده بود. اما طبق گفته منتقدان این مطالعه، تیم گوگل اطلاعات کمی درباره کد مورد استفاده و نحوه آزمایش آن در اختیار مخاطبان قرار داده است و نتیجه این تحقیق چیزی جز ارتقای یک فناوری انحصاری و بازاریابی برای آن نبوده است.
بنجامین هایب کاینز که در دانشگاه تورنتو در زمینه ژنومیک محاسباتی پژوهش میکند و نویسنده اصلی مقاله پاسخ است، در این باره میگوید: «ما دیگر نمیتوانیم تحمل کنیم. این وضعیت فقط مختص این مطالعه خاص نیست. این روندی است که چندین سال است شاهد آن هستیم و واقعاً ما را آزار میدهد.»
هایب کاینز و همکارانش از جمله دانشمندانیاند که علیه عدم شفافیت قابل درک در تحقیقات هوش مصنوعی فعالیت میکنند. این گروه از دانشمندان روزبهروز بیشتر میشوند. او میگوید: «وقتی آن مقاله را از طرف گوگل دیدیم، سریعا دریافتیم که این یک نمونه دیگر از یک مجله بسیار معروف است که یک مطالعه بسیار هیجانانگیز منتشر میکند و هیچ ارتباطی با علم ندارد. این بیشتر تبلیغاتی برای فناوریهای جالب توجه و شرکتهای بزرگ است. ما واقعاً نمیتوانیم با اطلاعاتی که به این صورت منتشر میشود و هیچ داده علمی ندارد، کاری انجام دهیم.»
علم بر بستر اعتماد بنا شده است، که معمولاً شامل به اشتراک گذاشتن جزئیات کافی درباره چگونگی تحقیق است تا دیگران بتوانند آن را تکرار کنند و نتایج را در آزمایشهای خود تأیید کنند. اینگونه است که علم جدید، خودش به نتیجهگیریهای علمی شما کمک میکند و در برابر دانایی ایستادگی نمیکند. تکرار یک آزمایش همچنین به دیگران امکان میدهد با استفاده از این نتایج، به پیشرفت در زمینههای دیگر نیز کمک کنند. علمی که قابل تکرار نیست و در کنار جاده روی بیلبوردهای بازاریابی قرار میگیرد، به چه کار میآید؟
حداقل، این ادعا میتواند یک ایده باشد که هنوز به عمل در نیامده و به آزمایش گذاشته نشده است. در عمل، تعداد کمی از مطالعات علمی به طور کامل تکرار میشوند، زیرا بیشتر محققان بیشتر از تکرار نتایج قدیمی، به تولید نتایج جدید علاقهمندند. اما در زمینههایی مانند بیولوژی و فیزیک و به طور کلی علوم کامپیوتر، معمولا از محققان انتظار میرود که اطلاعات لازم برای تکرار آزمایشها را ارائه دهند، حتی اگر این تکرارها نادر باشد.
هوش مصنوعی نباید قربانی افراد تازه کار و بلندپرواز شود!
هوش مصنوعی به چند دلیل حوزهای هیجانانگیز و پرطرفدار است. دلیل اول این است که این فناوری بسیار جدید و تازه است. جوئل پینو، دانشمند علوم کامپیوتر در تحقیقات هوش مصنوعی فیسبوک و پژوهشگر دانشگاه مک گیل که نویسنده این مقاله است، در این باره میگوید: «یافتههای هوش مصنوعی در گذشته بیشتر در حد تئوری و داشتههای نظری محدود میشد، اما در دهههای اخیر، این فناوری به یک علم تجربی تبدیل شده است. هرچه بیشتر در حال آزمایش دادههای نظری هستیم، بیشتر به دنیای واقعی نزدیک میشود.
او میگوید: «مشکل ما در این باره صرفاً آکادمیک نیست. عدم شفافیت مانع از ارزیابی صحیح مدلها و تکنیکهای هوش مصنوعی از نظر استحکام، تعصب و ایمنی میشود. هوش مصنوعی با تأثیر مستقیم بر زندگی افراد، از آزمایشگاههای تحقیقاتی به سمت برنامههای واقعی میرود. اما مدلهای یادگیری ماشین که به خوبی در آزمایشگاه کار میکنند، میتوانند در طبیعت شکست بخورند. این شکست پرهزینه خواهد بود و عواقب بالقوه خطرناکی خواهد داشت. تکرار یافتههای آزمایشی و تایید آنها توسط محققان مختلف در شرایط مختلف، مشکلات آن نظریه را زودتر نشان میدهد و باعث میشود هوش مصنوعی برای همه کاراتر و پیشرفتهتر شود.
هوش مصنوعی در حال حاضر به خودی خود، از مشکل جعبه سیاه رنج میبرد. مشکل جعبه سیاه یعنی نمیتوان گفت مدل یادگیری ماشین دقیقاً چگونه عمل میکند یا چرا نتایج منحصربهفردی را تولید میکند. حالا در کنار این مشکل، اگر عدم شفافیت در تحقیقات هوش مصنوعی را هم اضافه کنیم، شرایط بدتر میشود. مدلهای بزرگ تا آنجا که ممکن است نیاز به چشم دارند، افراد بیشتری آنها را آزمایش میکنند و میفهمند که چه چیزی آنها را به نتیجه میرساند یا باعث شکست آنها میشود. به این ترتیب میتوانیم هوش مصنوعی را در مراقبتهای بهداشتی ایمنتر کنیم، هوش مصنوعی را در پلیس منصفانهتر کنیم و برای چتباتها در میان کاربران محبوبیت بیشتری ایجاد کنیم.
آنچه مانع از تکرار یک آزمایش موفقیتآمیز هوش مصنوعی میشود، عدم دسترسی دانشمندان این حوزه به سه مورد است: کد مورد استفاده، داده و سختافزار. بر اساس گزارش وضعیت هوش مصنوعی سال 2020 2020 State of AI report، فقط 15٪ از مطالعات هوش مصنوعی کد مورد استفاده خود را به اشتراک گذاشتهاند. این نشان میدهد، محققان صنعت هوش مصنوعی مجرمان بزرگتری نسبت به افراد وابسته به دانشگاهها هستند. این گزارش به طور خاص دو موسسه OpenAI و DeepMind را برای نگه داشتن کد تحت پوشش به پاسخگویی فراخوانده است.
پس از این معضل، بین دو ستون مهم هوش مصنوعی که دادهها و سختافزار است، شکاف فزایندهای وجود دارد. دادهها غالباً انحصاریاند، مانند اطلاعاتی که فیسبوک از کاربران خود جمع میکند یا مانند پرونده پزشکی شخصی، این اطلاعات حساس و خصوصیاند. غولهای فناوری اما تحقیقات بیشتری را درباره خوشههای عظیم و گران قیمت رایانه انجام میدهند که تعداد کمی از دانشگاهها یا شرکتهای کوچکتر منابع دسترسی به آنها را در اختیار دارند.
برای مثال، تخمین زده شده است که آموزش یک جنراتور زبان GPT-3 برای OpenAI 10 تا 12 میلیون دلار هزینه داشته است و این فقط شامل هزینههای اولیه آن است و هزینه ساخت و آموزش پروتاتوتایپ آن را شامل نمیشود. بنایچ، بنیانگذار Air Street Capital که یک شرکت VC است و در استارت آپهای هوش مصنوعی سرمایه گذاری میکند، در این باره میگوید: «احتمالاً میتوانید این رقم را حداقل در یک یا دو ضرب کنید تا هزینه واقعی را بهدست آورید.» او میگوید: «فقط تعداد معدودی از شرکتهای بزرگ فناوری توانایی انجام چنین کاری را دارند، هیچ کس دیگری نمیتواند بودجههای هنگفتی را برای این آزمایشها به دست آورد.»
حالا سوال فرضی اینجاست: برخی از افراد به GPT-3 دسترسی دارند و برخی دیگر این امکان را ندارند که آن را تولید کنند یا آموزش دهند. چه اتفاقی میافتد وقتی مقالاتی را میبینیم که محققانی جدا از موسسه OpenAI از GPT-3 برای دستیابی به نتایج SOTA استفاده کردهاند؟
مشکل اصلی اینجاست: مگر OpenAI بین محققان مسابقه برد و باخت گذاشته است که اطلاعات آزمایشی خود را به راحتی در اختیار دانشمندان قرار نمیدهد؟
میزان پیشرفت دانشمندان در زمینههای گوناگون هوش مصنوعی، گیجکننده است و سالانه هزاران مقاله جدید در این حوزه منتشر میشود. اما اگر محققان ندانند به کدام یک از این پژوهشها اعتماد کنند، پیشبرد این رشته کار سختی خواهد شد. تکرار یافتههای آزمایشی به سایر محققان اجازه میدهد تا بررسی کنند که آیا نتایج ساختگی و انتخابیاند یا خیر؟ و آیا تکنیکهای جدید هوش مصنوعی همانطور که شرح داده شده عمل میکنند؟ یا خیر. پینو میگوید: «روزبهروز که میگذرد، تشخیص این که کدام یک از نتایج قابل اعتمادند و کدام یک نیستند، دشوار و دشوارتر میشود.»
چه کاری میتوان انجام داد؟ مانند بسیاری از محققان هوش مصنوعی، پینو وقت خود را بین آزمایشگاههای دانشگاه و شرکتها تقسیم میکند. طی چند سال گذشته، وی نیروی محرکه تغییر در نحوه انتشار تحقیقات هوش مصنوعی بوده است. به عنوان مثال، سال گذشته وی چک لیستی از مواردی که محققان باید ارائه دهند معرفی کرد. این چک لیست، پژوهشگران و موسسات تحقیقاتی را ملزم به ارائه مواردی شامل کد و توضیحات دقیق آزمایشها، هنگام ارائه مقالات به کنفرانس NeurIPS کرد. این کنفرانس یکی از بزرگترین کنفرانسهای حوزه هوش مصنوعی است.
همانندسازی خودش یک نوع پاداش است!
پینو همچنین به راهاندازی تعدادی از چالشهای تولید مجدد کمک کرده است که در آن محققان سعی میکنند نتایج مطالعات منتشر شده را تکرار کنند. شرکتکنندگان مقالاتی را که در یک کنفرانس پذیرفته شدهاند انتخاب میکنند و برای استفاده مجدد از آزمایشها با استفاده از اطلاعات ارائه شده رقابت میکنند. اما تنها جایزه این رقابتها این است که از برندگان تجلیل به عمل میآید.
این عدم انگیزه مانعی برای چنین تلاشهایی در سراسر علوم است، نه فقط در هوش مصنوعی. تکرار یک یافته آزمایشگاهی ضروری است، اما جایزهای ندارد. یک راه حل انگیزشی دیگر این است که دانش آموزان را مجبور به انجام کار کنیم. برای چند سال گذشته، رزماری کی، دانشجوی دکترای موسسه میلا که یک موسسه تحقیقاتی در مونترال است، یک چالش تولید مجدد را ترتیب داده است که دانشجویان شرکت کننده در آن سعی میکنند مطالعات ارسال شده به کنفرانس NeurIPS را به عنوان بخشی از دوره یادگیری ماشین خود تکرار کنند. در این چالش، برخی از تکرارهای موفقیتآمیز بررسی میشوند و در مجله ReScience منتشر میشوند.
رزماری کی در این باره میگوید: «تولید یک مقاله دیگر از ابتدا، کار بسیار پرزحمتی است. اما چالش تولید مجدد این تلاش را عملی میکند و به افرادی که کار خوبی انجام میدهند، اعتبار میبخشد.» رزماری کی و دیگران همچنین در کنفرانسهای هوش مصنوعی از طریق کارگاههای آموزشی برای تشویق محققان به شفافسازی کار خود، این موضوع را گسترش میدهند. امسال پینو و رزماری کی چالش تولید مجدد را به هفت کنفرانس برتر هوش مصنوعی، از جمله ICML و ICLR گسترش دادند.
فشار دیگر برای شفافیت پژوهشها، پروژه «مقاله همراه با کد» است که توسط رابرت استوژنیچ، محقق هوش مصنوعی در زمانی که وی در دانشگاه کمبریج بود، راهاندازی شد. رابرت استوژنیچ که اکنون یکی از همکاران پینو در فیسبوک است، یک وبسایت مستقل راهاندازی کرده که محققان میتوانند یک پژوهش را به کدی که همراه آن است، لینک دهند. پروژه «مقاله همراه با کد» امسال همکاری را با شرکت arXiv که یک سرور محبوب پیش چاپگر است، آغاز کرد. از ماه اکتبر، همه مقالات یادگیری ماشین در arXiv دارای بخش «مقالات با کد» هستند که مستقیماً به کدی که نویسندگان میخواهند در دسترس قرار دهند، پیوند دارد. هدف این پروژه این بوده است که بهاشتراکگذاری اطلاعات کامل یک آزمایش هوش مصنوعی، به صورت یک هنجار درآید.
اما آیا چنین تلاشهایی تفاوتی هم در روندهای معمول حال حاضر ایجاد میکند؟ پینو دریافت که سال گذشته، هنگام معرفی چک لیست به کنفرانس، تعداد محققانی که کد مورد نظر را با مقالات ارسالی به NeurIPS اتچ کردهاند، از کمتر از 50٪ به حدود 75٪ رسیده است. هزاران بررسی کننده، گزارش دادهاند که آنها از کد برای ارزیابی موارد ارسالی استفاده کردهاند و تعداد شرکتکنندگان در چالشهای تولید مجدد نیز در حال افزایش است.
در تحقیقات هوش مصنوعی جزئیات کار چالش برانگیزند!
اما این فقط یک شروع است. هایب کاینز اشاره میکند که حتی کد نیز به تنهایی برای تکرار آزمایش کافی نیست. ساختن مدلهای هوش مصنوعی شامل ایجاد تغییرات کوچک است؛ افزودن پارامترها در اینجا، تنظیم مقادیر در آنجا و غیره را در بر میگیرد. هر یک از اینها میتواند تفاوت بین کارکردن و کار نکردن مدل را ایجاد کند. بدون فراداده که نحوه آموزش و تنظیم مدلها را توصیف کند، کد میتواند حتی بیفایده باشد. او میگوید: «چالش واقعی در جزئیات است.»
در ابتدا همیشه دقیقاً مشخص نیست که چه کدی را باید به اشتراک گذاشت. بسیاری از آزمایشگاهها برای اجرای مدلهای خود از نرمافزار خاصی استفاده میکنند. بعضی اوقات این نرمافزارها اختصاصیاند. این که بدانید چه مقدار از این کد پشتیبانی نیز باید به اشتراک گذاشته شود، دشوار است.
پینو اما خیلی نگران چنین موانعی نیست. او میگوید: «ما باید واقعاً انتظارات زیادی برای به اشتراک گذاشتن کد داشته باشیم.» به اشتراک گذاری دادهها پیچیدهتر است، اما در اینجا نیز راه حلهایی وجود دارد. اگر محققان نتوانند دادههای خود را به اشتراک بگذارند، ممکن است راهنمایی کنند تا دیگران بتوانند مجموعه دادههای مشابه را ایجاد کنند. یا میتوانید فرایندی داشته باشید که دسترسی به دادهها به تعداد کمی از بررسی کنندگان مستقل داده شود و آنها نتایج را برای همه تأیید کنند.
سختافزار بزرگترین مشکل است. اما DeepMind ادعا میکند که تحقیق در پروژههای بزرگ مانند AlphaGo یا GPT-3 دارای یک اثر قطرهای است؛ یعنی جایی که پول خرج شده توسط آزمایشگاههای ثروتمند در نهایت منجر به نتیجهای میشود که به نفع همه است. هوش مصنوعی که در مراحل اولیه برای سایر محققان غیرقابل دسترسی است، زیرا به قدرت محاسباتی زیادی احتیاج دارد، اغلب با توسعه بیشتر کارآمدتر میشود و در نتیجه قابل دسترسیتر است. کوری کاووکچو اوغلو، معاون پژوهش در DeepMind، میگوید: «AlphaGo Zero با استفاده از منابع محاسباتی بسیار کمی توانست از AlphaGo اصلی پیشی گیرد.»
از نظر تئوری، این بدان معناست که حتی اگر همانندسازی به تأخیر بیفتد، حداقل هنوز این امکان وجود دارد که آن را به آزمایش بگذارید. کاووکچو اوغلو خاطرنشان میکند که جیان کارلو پاسکوتو، رمزگذار بلژیکی در موزیلا که در اوقات فراغت خود شطرنج و نرمافزار Go مینویسد، با استفاده از الگوریتمهای مشخص شده توسط DeepMind در مقالات خود، توانست نسخهای از AlphaGo Zero را به نام Leela Zero دوباره ایجاد کند. پینو همچنین فکر میکند تحقیقات شاخص مانند AlphaGo و GPT-3 نادر است. وی میگوید، بیشتر تحقیقات هوش مصنوعی روی رایانههایی انجام میشود که در دسترس آزمایشگاههای متوسط هوش مصنوعی هستند و مشکل فقط منحصر به هوش مصنوعی نیست. پینو و بینایچ هر دو به فیزیک ذرات اشاره دارند، جایی که برخی آزمایشها فقط بر روی تجهیزات گران قیمت مانند برخورد دهنده بزرگ هادرونی انجام میشود.
با این حال، در فیزیک، آزمایشگاههای دانشگاه آزمایشهای مشترکی را روی LHC انجام میدهند. آزمایشهای بزرگ هوش مصنوعی معمولاً روی سختافزارهایی که تحت مالکیت و کنترل شرکتها هستند انجام میشود. پینو میگوید، اما حتی این نیز در حال تغییر است. به عنوان مثال، گروهی به نام «کامپیوتر کانادا» در حال گردآوری خوشههای محاسباتی برای اجازه دادن به دانشگاهها برای انجام آزمایشهای بزرگ هوش مصنوعی است. برخی از شرکتها از جمله فیسبوک نیز به دانشگاهها دسترسی محدود به سختافزارهای خود را میدهند.
بیایید این را بپذیریم: پیروی از روشهای خوب برای به اشتراک گذاری کد، دادهها و سایر مطالب میتواند برای نویسندگان در هر کجا ناخوشایند باشد (اگرچه برخی از شیوهها باعث راحتی آن میشود) اما برای کار علمی ضروری است. مشاغل انتفاعی مجوز رایگان دریافت نمیکنند.
هایب کاینز اما موافق این ادعا نیست. هنگامی که او از تیم گوگل هلث درخواست کرد کد مربوط به هوش مصنوعی غربالگری سرطان خود را به اشتراک بگذارد، به او گفته شد که نتایج به دست آمده نیاز به آزمایش بیشتری برای تایید دارند. این تیم همچنین در پاسخ رسمی به انتقادات هایب کاینز که در Nature نیز منتشر شده است، تکرار میکند: «محققان اجازه ندارند همه دادههای پزشکی مورد استفاده خود را به اشتراک بگذارند.»
هایب کاینز میگوید: «این ادعای خوبی نیست. اگر آنها بخواهند محصولی را بسازند، من کاملاً درک میکنم که همه اطلاعاتی را که کشف کردهاند، فاش نکنند. اما اگر یافتههای خود را در یک مجله یا کنفرانس علمی منتشر میکنید، شما وظیفه دارید کدی را که دیگران میتوانند اجرا کنند را نیز منتشر کنید. گاهی اوقات ممکن است این دادهها به معنای به اشتراک گذاشتن نسخهای باشد که روی دادههای کمتری آموزش دیده یا از سختافزار کمهزینهتری استفاده میکند. این ممکن است نتایج بدتری را به همراه داشته باشد.»
دوره پژوهش در شرایط سخت دیگر به سر آمده!
اگر قرار است شرکتها به دلیل انتشار یافتههای خود مورد انتقاد قرار بگیرند، چرا اصلاً این کار را انجام میدهند؟ البته درجاتی از روابط عمومی وجود دارد. اما دلیل اصلی این که یافتهها با جزئیات باید در اختیار جامعه دانشمدان هوش مصنوعی قرار گیرد، این است که بهترین آزمایشگاههای شرکتها با محققان دانشگاه پر شده است. تا حدودی فرهنگ در مکانهایی مانند مرکز تحقیقات هوش مصنوعی فیسبوک، DeepMind و OpenAI با عادتهای سنتی دانشگاهی شکل میگیرد. شرکتهای فناوری نیز با شرکت در جوامع تحقیقاتی گسترده، به موفقیتهای بیشتر دست مییابند. تمام پروژههای بزرگ هوش مصنوعی در آزمایشگاههای خصوصی بر اساس مجموعههای تحقیقات عمومی ساخته شدهاند و تعداد کمی از محققان هوش مصنوعی از ابزارهای یادگیری ماشین منبع آزاد مانند تنسورفلو یا پای تورچ استفاده میکنند.
سایر آزمایشگاههای بزرگ شرکتی نیز بر تعهد خود به شفافیت اطلاعرسانی تأکید میکنند. کاووکچو اوغلو میگوید: «کار علمی نیاز به موشکافی و تکثیر دیگران در این زمینه دارد. این بخش مهمی از رویکرد ما برای تحقیق در DeepMind است.»
کایلا وود سخنگوی شرکت OpenAI میگوید: «این شرکت به چیزی بسیار متفاوت از آزمایشگاه سنتی تبدیل شده است. آزمایش در زمینه هوش مصنوعی به طور طبیعی برخی سوالات را ایجاد میکند. وی خاطرنشان کرد که OpenAI با بیش از 80 صنعت و سازمان دانشگاهی در مشارکت در زمینه هوش مصنوعی همکاری میکند تا درباره هنجارهای انتشار اطلاعات برای تحقیق بیشتر مشارکت داشته باشد.
با این توضیحات باید منتظر تأثیر طولانیمدت شیوههای معرفی شده توسط پینو و دیگران بمانیم. آیا این عادتهای مخرب برای همیشه تغییر میکنند؟ این تلاشها چه تفاوتی در پیشرفت هوش مصنوعی در خارج از پروژههای تحقیقاتی و سازمانهای پژوهشی ایجاد خواهند کرد؟ در هر صورت، تحقیقات هوش مصنوعی هنوز تحت سلطه شرکتهای بزرگ است. اگر روند اطلاعرسانی درباره نتایج این پژوهشها به درستی انجام شود، نتایج بهتری در انتظار ما خواهد بود.
جدیدترین اخبار هوش مصنوعی ایران و جهان را با هوشیو دنبال کنید.