تحقیقات هوش مصنوعی
اخبار

تحقیقات هوش مصنوعی با بحران پاسخگویی دست و پنجه نرم می‌‌کند

0

غول‌‌های دنیای فناوری پیشرفت‌‌های خود را مدیون پروژه‌‌های تحقیقاتی‌اند و برای رسیدن به هر موفقیتی به تحقیق و پژوهش نیاز دارند. اما این روزها انگار مرز میان دستیابی به موفقیت واقعی و عرضه یک ویترین جذاب از محصولات برای بازاریابی، در حال کمرنگ شدن است.

ماه گذشته مجله نیچر مقاله‌‌ای منتشر کرد که توسط ۳۱ دانشمند و در پاسخ به مطالعه گوگل هلث نوشته شده بود. گوگل هلث اوایل سال جاری در این مجله مطالعه‌‌ای را منتشر کرده بود که درباره آزمایش‌‌های موفقیت‌‌‌آمیز هوش مصنوعی در زمینه سرطان پستان بود. در این آزمایش‌‌ها، از فناوری هوش مصنوعی برای ردیابی نشانه‌‌های سرطان پستان در تصاویر پزشکی استفاده شده بود. اما طبق گفته منتقدان این مطالعه، تیم گوگل اطلاعات کمی درباره کد مورد استفاده و نحوه آزمایش آن در اختیار مخاطبان قرار داده است و نتیجه این تحقیق چیزی جز ارتقای یک فناوری انحصاری و بازاریابی برای آن نبوده است.

بنجامین هایب کاینز که در دانشگاه تورنتو در زمینه ژنومیک محاسباتی پژوهش می‌‌کند و نویسنده اصلی مقاله پاسخ است، در این باره می‌‌گوید: «ما دیگر نمی‌‌توانیم تحمل کنیم. این وضعیت فقط مختص این مطالعه خاص نیست. این روندی است که چندین سال است شاهد آن هستیم و واقعاً ما را آزار می‌‌دهد.»

هایب کاینز و همکارانش از جمله دانشمندانی‌اند که علیه عدم شفافیت قابل درک در تحقیقات هوش مصنوعی فعالیت می‌‌کنند. این گروه از دانشمندان روزبه‌‌روز بیشتر می‌‌شوند. او می‌‌گوید: «وقتی آن مقاله را از طرف گوگل دیدیم، سریعا دریافتیم که این یک نمونه دیگر از یک مجله بسیار معروف است که یک مطالعه بسیار هیجان‌‌انگیز منتشر می‌‌کند و هیچ ارتباطی با علم ندارد. این بیشتر تبلیغاتی برای فناوری‌‌های جالب توجه و شرکت‌‌های بزرگ است. ما واقعاً نمی‌‌توانیم با اطلاعاتی که به این صورت منتشر می‌‌شود و هیچ داده علمی ندارد، کاری انجام دهیم.»

علم بر بستر اعتماد بنا شده است، که معمولاً شامل به اشتراک گذاشتن جزئیات کافی درباره چگونگی تحقیق است تا دیگران بتوانند آن را تکرار کنند و نتایج را در آزمایش‌‌های خود تأیید کنند. این‌گونه است که علم جدید، خودش به نتیجه‌گیری‌‌های علمی شما کمک می‌‌کند و در برابر دانایی ایستادگی نمی‌‌کند. تکرار یک آزمایش همچنین به دیگران امکان می‌‌دهد با استفاده از این نتایج، به پیشرفت در زمینه‌‌های دیگر نیز کمک کنند. علمی که قابل تکرار نیست و در کنار جاده روی بیلبوردهای بازاریابی قرار می‌‌گیرد، به چه کار می‌‌آید؟

حداقل، این ادعا می‌‌تواند یک ایده باشد که هنوز به عمل در نیامده و به آزمایش گذاشته نشده است. در عمل، تعداد کمی از مطالعات علمی به طور کامل تکرار می‌‌شوند، زیرا بیشتر محققان بیشتر از تکرار نتایج قدیمی، به تولید نتایج جدید علاقه‌‌مندند. اما در زمینه‌‌هایی مانند بیولوژی و فیزیک و به طور کلی علوم کامپیوتر، معمولا از محققان انتظار می‌‌رود که اطلاعات لازم برای تکرار آزمایش‌‌‌ها را ارائه دهند، حتی اگر این تکرارها نادر باشد.

هوش مصنوعی نباید قربانی افراد تازه کار و بلندپرواز شود!

هوش مصنوعی به چند دلیل حوزه‌‌ای هیجان‌‌انگیز و پرطرفدار است. دلیل اول این است که این فناوری بسیار جدید و تازه است. جوئل پینو، دانشمند علوم کامپیوتر در تحقیقات هوش مصنوعی فیسبوک و پژوهشگر دانشگاه مک گیل که نویسنده این مقاله است، در این باره می‌‌گوید: «یافته‌‌های هوش مصنوعی در گذشته بیشتر در حد تئوری و داشته‌‌های نظری محدود می‌‌شد، اما در دهه‌‌های اخیر، این فناوری به یک علم تجربی تبدیل شده است. هرچه بیشتر در حال آزمایش داده‌‌های نظری هستیم، بیشتر به دنیای واقعی نزدیک می‌‌شود.

او می‌‌گوید: «مشکل ما در این باره صرفاً آکادمیک نیست. عدم شفافیت مانع از ارزیابی صحیح مدل‌‌‌ها و تکنیک‌‌های هوش مصنوعی از نظر استحکام، تعصب و ایمنی می‌‌شود. هوش مصنوعی با تأثیر مستقیم بر زندگی افراد، از آزمایشگاه‌‌های تحقیقاتی به سمت برنامه‌‌های واقعی می‌‌رود. اما مدل‌‌های یادگیری ماشین که به خوبی در آزمایشگاه کار می‌‌کنند، می‌‌توانند در طبیعت شکست بخورند. این شکست پرهزینه خواهد بود و عواقب بالقوه خطرناکی خواهد داشت. تکرار یافته‌‌های آزمایشی و تایید آن‌‌ها توسط محققان مختلف در شرایط مختلف، مشکلات آن نظریه را زودتر نشان می‌‌دهد و باعث می‌‌شود هوش مصنوعی برای همه کاراتر و پیشرفته‌‌تر شود.

هوش مصنوعی در حال حاضر به خودی خود، از مشکل جعبه سیاه رنج می‌‌برد. مشکل جعبه سیاه یعنی نمی‌‌توان گفت مدل یادگیری ماشین دقیقاً چگونه عمل می‎کند یا چرا نتایج منحصربه‌فردی را تولید می‌کند. حالا در کنار این مشکل، اگر عدم شفافیت در تحقیقات هوش مصنوعی را هم اضافه کنیم، شرایط بدتر می‌‌شود. مدل‌‌های بزرگ تا آن‌جا که ممکن است نیاز به چشم دارند، افراد بیشتری آن‌‌ها را آزمایش می‌‌کنند و می‌‌فهمند که چه چیزی آن‌‌ها را به نتیجه می‌‌رساند یا باعث شکست آن‌‌ها می‌‌شود. به این ترتیب می‌‌توانیم هوش مصنوعی را در مراقبت‌‌های بهداشتی ایمن‌‌تر کنیم، هوش مصنوعی را در پلیس منصفانه‌‌تر کنیم و برای چت‌‌بات‌‌‌ها در میان کاربران محبوبیت بیشتری ایجاد کنیم.

آنچه مانع از تکرار یک آزمایش موفقیت‌‌‌آمیز هوش مصنوعی می‌‌شود، عدم دسترسی دانشمندان این حوزه به سه مورد است: کد مورد استفاده، داده و سخت‌‌‌افزار. بر اساس گزارش وضعیت هوش مصنوعی سال ۲۰۲۰ ۲۰۲۰ State of AI report، فقط ۱۵٪ از مطالعات هوش مصنوعی کد مورد استفاده خود را به اشتراک گذاشته‌‌‌اند. این نشان می‌‌دهد، محققان صنعت هوش مصنوعی مجرمان بزرگ‌‌‌تری نسبت به افراد وابسته به دانشگاه‌‌‌ها هستند. این گزارش به طور خاص دو موسسه OpenAI و DeepMind را برای نگه داشتن کد تحت پوشش به پاسخگویی فراخوانده است.

پس از این معضل، بین دو ستون مهم هوش مصنوعی که داده‌‌‌ها و سخت‌‌‌افزار است، شکاف فزاینده‌‌ای وجود دارد. داده‌‌‌ها غالباً انحصاری‌‌اند، مانند اطلاعاتی که فیسبوک از کاربران خود جمع می‌‌کند یا مانند پرونده پزشکی شخصی، این اطلاعات حساس و خصوصی‌‌‌اند. غول‌‌های فناوری اما تحقیقات بیشتری را درباره خوشه‌‌های عظیم و گران قیمت رایانه انجام می‌‌دهند که تعداد کمی از دانشگاه‌‌‌ها یا شرکت‌‌های کوچک‌‌تر منابع دسترسی به آن‌‌ها را در اختیار دارند.

برای مثال، تخمین زده شده است که آموزش یک جنراتور زبان GPT-3 برای OpenAI 10 تا ۱۲ میلیون دلار هزینه داشته است و این فقط شامل هزینه‌‌های اولیه آن است و هزینه ساخت و آموزش پروتاتوتایپ آن را شامل نمی‌‌شود. بنایچ، بنیان‌‌گذار Air Street Capital که یک شرکت VC است و در استارت آپ‌‌های هوش مصنوعی سرمایه گذاری می‌‌کند، در این باره می‌‌گوید: «احتمالاً می‌‌توانید این رقم را حداقل در یک یا دو ضرب کنید تا هزینه واقعی را به‌دست آورید.» او می‌‌گوید: «فقط تعداد معدودی از شرکت‌‌های بزرگ فناوری توانایی انجام چنین کاری را دارند، هیچ کس دیگری نمی‌‌تواند بودجه‌‌های هنگفتی را برای این آزمایش‌‌‌ها به دست آورد.»

حالا سوال فرضی این‌جاست: برخی از افراد به GPT-3 دسترسی دارند و برخی دیگر این امکان را ندارند که آن را تولید کنند یا آموزش دهند. چه اتفاقی می‌‌افتد وقتی مقالاتی را می‌‌بینیم که محققانی جدا از موسسه OpenAI از GPT-3 برای دستیابی به نتایج SOTA استفاده کرده‌‌اند؟

مشکل اصلی این‌جاست: مگر OpenAI بین محققان مسابقه برد و باخت گذاشته است که اطلاعات آزمایشی خود را به راحتی در اختیار دانشمندان قرار نمی‌‌دهد؟

میزان پیشرفت دانشمندان در زمینه‌‌های گوناگون هوش مصنوعی، گیج‌‌کننده است و سالانه هزاران مقاله جدید در این حوزه منتشر می‌‌شود. اما اگر محققان ندانند به کدام یک از این پژوهش‌‌‌ها اعتماد کنند، پیشبرد این رشته کار سختی خواهد شد. تکرار یافته‌‌های آزمایشی به سایر محققان اجازه می‌‌دهد تا بررسی کنند که آیا نتایج ساختگی و انتخابی‌‌اند یا خیر؟ و آیا تکنیک‌‌های جدید هوش مصنوعی همان‌‌طور که شرح داده شده عمل می‌‌کنند؟ یا خیر. پینو می‌‌گوید: «روزبه‌‌روز که می‌‌گذرد، تشخیص این که کدام یک از نتایج قابل اعتمادند و کدام یک نیستند، دشوار و دشوارتر می‌‌شود.»

چه کاری می‌‌توان انجام داد؟ مانند بسیاری از محققان هوش مصنوعی، پینو وقت خود را بین آزمایشگاه‌‌های دانشگاه و شرکت‌‌‌ها تقسیم می‌‌کند. طی چند سال گذشته، وی نیروی محرکه تغییر در نحوه انتشار تحقیقات هوش مصنوعی بوده است. به عنوان مثال، سال گذشته وی چک لیستی از مواردی که محققان باید ارائه دهند معرفی کرد. این چک لیست، پژوهشگران و موسسات تحقیقاتی را ملزم به ارائه مواردی شامل کد و توضیحات دقیق آزمایش‌‌ها، هنگام ارائه مقالات به کنفرانس NeurIPS کرد. این کنفرانس یکی از بزرگ‌‌ترین کنفرانس‌‌های حوزه هوش مصنوعی است.

همانندسازی خودش یک نوع پاداش است!

پینو همچنین به راه‌اندازی تعدادی از چالش‌‌های تولید مجدد کمک کرده است که در آن محققان سعی می‌‌کنند نتایج مطالعات منتشر شده را تکرار کنند. شرکت‌کنندگان مقالاتی را که در یک کنفرانس پذیرفته شده‌اند انتخاب می‌‌کنند و برای استفاده مجدد از آزمایش‌‌‌ها با استفاده از اطلاعات ارائه شده رقابت می‌‌کنند. اما تنها جایزه این رقابت‌‌‌ها این است که از برندگان تجلیل به عمل می‌‌آید.

این عدم انگیزه مانعی برای چنین تلاش‌‌هایی در سراسر علوم است، نه فقط در هوش مصنوعی. تکرار یک یافته آزمایشگاهی ضروری است، اما جایزه‌‌ای ندارد. یک راه حل انگیزشی دیگر این است که دانش آموزان را مجبور به انجام کار کنیم. برای چند سال گذشته، رزماری کی، دانشجوی دکترای موسسه میلا که یک موسسه تحقیقاتی در مونترال است، یک چالش تولید مجدد را ترتیب داده است که دانشجویان شرکت کننده در آن سعی می‌‌کنند مطالعات ارسال شده به کنفرانس NeurIPS را به عنوان بخشی از دوره یادگیری ماشین خود تکرار کنند. در این چالش، برخی از تکرارهای موفقیت‌‌‌آمیز بررسی می‌‌شوند و در مجله ReScience منتشر می‌‌شوند.

رزماری کی در این باره می‌‌گوید: «تولید یک مقاله دیگر از ابتدا، کار بسیار پرزحمتی است. اما چالش تولید مجدد این تلاش را عملی می‌‌کند و به افرادی که کار خوبی انجام می‌‌دهند، اعتبار می‌‌بخشد.» رزماری کی و دیگران همچنین در کنفرانس‌‌های هوش مصنوعی از طریق کارگاه‌‌های آموزشی برای تشویق محققان به شفاف‌سازی کار خود، این موضوع را گسترش می‌‌دهند. امسال پینو و رزماری کی چالش تولید مجدد را به هفت کنفرانس برتر هوش مصنوعی، از جمله ICML و ICLR گسترش دادند.

فشار دیگر برای شفافیت پژوهش‌‌ها، پروژه «مقاله همراه با کد» است که توسط رابرت استوژنیچ، محقق هوش مصنوعی در زمانی که وی در دانشگاه کمبریج بود، راه‌اندازی شد. رابرت استوژنیچ که اکنون یکی از همکاران پینو در فیسبوک است، یک وبسایت مستقل راه‌اندازی کرده که محققان می‌‌توانند یک پژوهش را به کدی که همراه آن است، لینک دهند. پروژه «مقاله همراه با کد» امسال همکاری را با شرکت arXiv که یک سرور محبوب پیش چاپگر است، آغاز کرد. از ماه اکتبر، همه مقالات یادگیری ماشین در arXiv دارای بخش «مقالات با کد» هستند که مستقیماً به کدی که نویسندگان می‌‌خواهند در دسترس قرار دهند، پیوند دارد. هدف این پروژه این بوده است که به‌اشتراک‌گذاری اطلاعات کامل یک آزمایش هوش مصنوعی، به صورت یک هنجار درآید.

اما آیا چنین تلاش‌‌هایی تفاوتی هم در روندهای معمول حال حاضر ایجاد می‌‌کند؟ پینو دریافت که سال گذشته، هنگام معرفی چک لیست به کنفرانس، تعداد محققانی که کد مورد نظر را با مقالات ارسالی به NeurIPS اتچ کرده‌‌اند، از کمتر از ۵۰٪ به حدود ۷۵٪ رسیده است. هزاران بررسی کننده، گزارش داده‌اند که آن‌‌ها از کد برای ارزیابی موارد ارسالی استفاده کرده‌‌اند و تعداد شرکت‌کنندگان در چالش‌‌های تولید مجدد نیز در حال افزایش است.

در تحقیقات هوش مصنوعی جزئیات کار چالش برانگیزند!

اما این فقط یک شروع است. هایب کاینز اشاره می‌‌کند که حتی کد نیز به تنهایی برای تکرار آزمایش کافی نیست. ساختن مدل‌‌های هوش مصنوعی شامل ایجاد تغییرات کوچک است؛ افزودن پارامترها در این‌جا، تنظیم مقادیر در آن‌جا و غیره را در بر می‌‌گیرد. هر یک از این‌‌‌ها می‌‌تواند تفاوت بین کارکردن و کار نکردن مدل را ایجاد کند. بدون فراداده که نحوه آموزش و تنظیم مدل‌‌‌ها را توصیف کند، کد می‌‌تواند حتی بی‌فایده باشد. او می‌‌گوید: «چالش واقعی در جزئیات است.»

در ابتدا همیشه دقیقاً مشخص نیست که چه کدی را باید به اشتراک گذاشت. بسیاری از آزمایشگاه‌‌‌ها برای اجرای مدل‌‌های خود از نرم‌‌افزار خاصی استفاده می‌‌کنند. بعضی اوقات این نرم‌‌افزارها اختصاصی‌‌‌اند. این که بدانید چه مقدار از این کد پشتیبانی نیز باید به اشتراک گذاشته شود، دشوار است.

پینو اما خیلی نگران چنین موانعی نیست. او می‌‌گوید: «ما باید واقعاً انتظارات زیادی برای به اشتراک گذاشتن کد داشته باشیم.» به اشتراک گذاری داده‌‌‌ها پیچیده‌‌تر است، اما در این‌جا نیز راه حل‌‌هایی وجود دارد. اگر محققان نتوانند داده‌‌های خود را به اشتراک بگذارند، ممکن است راهنمایی کنند تا دیگران بتوانند مجموعه داده‌‌های مشابه را ایجاد کنند. یا می‌‌توانید فرایندی داشته باشید که دسترسی به داده‌‌‌ها به تعداد کمی از بررسی کنندگان مستقل داده شود و آن‌‌ها نتایج را برای همه تأیید کنند.

سخت‌‌‌افزار بزرگ‌ترین مشکل است. اما DeepMind ادعا می‌‌کند که تحقیق در پروژه‌‌های بزرگ مانند AlphaGo یا GPT-3 دارای یک اثر قطره‌‌ای است؛ یعنی جایی که پول خرج شده توسط آزمایشگاه‌‌های ثروتمند در نهایت منجر به نتیجه‌‌ای می‌‌شود که به نفع همه است. هوش مصنوعی که در مراحل اولیه برای سایر محققان غیرقابل دسترسی است، زیرا به قدرت محاسباتی زیادی احتیاج دارد، اغلب با توسعه بیشتر کارآمدتر می‌‌شود و در نتیجه قابل دسترسی‌‌تر است. کوری کاووکچو اوغلو، معاون پژوهش در DeepMind، می‌‌گوید: «AlphaGo Zero با استفاده از منابع محاسباتی بسیار کمی توانست از AlphaGo اصلی پیشی گیرد.»

از نظر تئوری، این بدان معناست که حتی اگر همانندسازی به تأخیر بیفتد، حداقل هنوز این امکان وجود دارد که آن را به آزمایش بگذارید. کاووکچو اوغلو خاطرنشان می‌‌کند که جیان کارلو پاسکوتو، رمزگذار بلژیکی در موزیلا که در اوقات فراغت خود شطرنج و نرم‌‌افزار Go می‌‌نویسد، با استفاده از الگوریتم‌‌های مشخص شده توسط DeepMind در مقالات خود، توانست نسخه‌‌ای از AlphaGo Zero را به نام Leela Zero دوباره ایجاد کند. پینو همچنین فکر می‌‌کند تحقیقات شاخص مانند AlphaGo و GPT-3 نادر است. وی می‌‌گوید، بیشتر تحقیقات هوش مصنوعی روی رایانه‌‌هایی انجام می‌‌شود که در دسترس آزمایشگاه‌‌های متوسط هوش مصنوعی ​​هستند و مشکل فقط منحصر به هوش مصنوعی نیست. پینو و بینایچ هر دو به فیزیک ذرات اشاره دارند، جایی که برخی آزمایش‌‌‌ها فقط بر روی تجهیزات گران قیمت مانند برخورد دهنده بزرگ هادرونی انجام می‌‌شود.

با این حال، در فیزیک، آزمایشگاه‌‌های دانشگاه آزمایش‌‌های مشترکی را روی LHC انجام می‌‌دهند. آزمایش‌‌های بزرگ هوش مصنوعی معمولاً روی سخت‌‌‌افزارهایی که تحت مالکیت و کنترل شرکت‌‌‌ها هستند انجام می‌‌شود. پینو می‌‌گوید، اما حتی این نیز در حال تغییر است. به عنوان مثال، گروهی به نام «کامپیوتر کانادا» در حال گردآوری خوشه‌‌های محاسباتی برای اجازه دادن به دانشگاه‌‌‌ها برای انجام آزمایش‌‌های بزرگ هوش مصنوعی است. برخی از شرکت‌‌‌ها از جمله فیسبوک نیز به دانشگاه‌‌‌ها دسترسی محدود به سخت‌‌‌افزارهای خود را می‌‌دهند.

بیایید این را بپذیریم: پیروی از روش‌‌های خوب برای به اشتراک گذاری کد، داده‌‌‌ها و سایر مطالب می‌‌تواند برای نویسندگان در هر کجا ناخوشایند باشد (اگرچه برخی از شیوه‌‌‌ها باعث راحتی آن می‌‌شود) اما برای کار علمی ضروری است. مشاغل انتفاعی مجوز رایگان دریافت نمی‌‌کنند.

هایب کاینز اما موافق این ادعا نیست. هنگامی که او از تیم گوگل هلث درخواست کرد کد مربوط به هوش مصنوعی غربالگری سرطان خود را به اشتراک بگذارد، به او گفته شد که نتایج به دست آمده نیاز به آزمایش بیشتری برای تایید دارند. این تیم همچنین در پاسخ رسمی به انتقادات هایب کاینز که در Nature نیز منتشر شده است، تکرار می‌‌کند: «محققان اجازه ندارند همه داده‌‌های پزشکی مورد استفاده خود را به اشتراک بگذارند.»

هایب کاینز می‌‌گوید: «این ادعای خوبی نیست. اگر آن‌‌ها بخواهند محصولی را بسازند، من کاملاً درک می‌‌کنم که همه اطلاعاتی را که کشف کرده‌اند، فاش نکنند. اما اگر یافته‌‌های خود را در یک مجله یا کنفرانس علمی منتشر می‌‌کنید، شما وظیفه دارید کدی را که دیگران می‌‌توانند اجرا کنند را نیز منتشر کنید. گاهی اوقات ممکن است این داده‌‌‌ها به معنای به اشتراک گذاشتن نسخه‌‌ای باشد که روی داده‌‌های کمتری آموزش دیده یا از سخت‌‌‌افزار کم‌هزینه‌‌‌تری استفاده می‌‌کند. این ممکن است نتایج بدتری را به همراه داشته باشد.»

دوره پژوهش در شرایط سخت دیگر به سر آمده!

اگر قرار است شرکت‌‌‌ها به دلیل انتشار یافته‌‌های خود مورد انتقاد قرار بگیرند، چرا اصلاً این کار را انجام می‌‌دهند؟ البته درجاتی از روابط عمومی وجود دارد. اما دلیل اصلی این که یافته‌‌‌ها با جزئیات باید در اختیار جامعه دانشمدان هوش مصنوعی قرار گیرد، این است که بهترین آزمایشگاه‌‌های شرکت‌‌‌ها با محققان دانشگاه پر شده است. تا حدودی فرهنگ در مکان‌‌هایی مانند مرکز تحقیقات هوش مصنوعی فیسبوک، DeepMind و OpenAI با عادت‌‌های سنتی دانشگاهی شکل می‌‌گیرد. شرکت‌‌های فناوری نیز با شرکت در جوامع تحقیقاتی گسترده، به موفقیت‌های بیشتر دست می‌یابند. تمام پروژه‌‌های بزرگ هوش مصنوعی در آزمایشگاه‌‌های خصوصی بر اساس مجموعه‌‌های تحقیقات عمومی ساخته شده‌‌اند و تعداد کمی از محققان هوش مصنوعی از ابزارهای یادگیری ماشین منبع آزاد مانند تنسورفلو یا پای تورچ استفاده می‌‌کنند.

سایر آزمایشگاه‌‌های بزرگ شرکتی نیز بر تعهد خود به شفافیت اطلاع‌رسانی تأکید می‌‌کنند. کاووکچو اوغلو می‌‌گوید: «کار علمی نیاز به موشکافی و تکثیر دیگران در این زمینه دارد. این بخش مهمی از رویکرد ما برای تحقیق در DeepMind است.»

کایلا وود سخنگوی شرکت  OpenAI می‌‌گوید: «این شرکت به چیزی بسیار متفاوت از آزمایشگاه سنتی تبدیل شده است. آزمایش در زمینه هوش مصنوعی به طور طبیعی برخی سوالات را ایجاد می‌‌کند. وی خاطرنشان کرد که OpenAI با بیش از ۸۰ صنعت و سازمان دانشگاهی در مشارکت در زمینه هوش مصنوعی همکاری می‌‌کند تا درباره هنجارهای انتشار اطلاعات برای تحقیق بیشتر مشارکت داشته باشد.

با این توضیحات باید منتظر تأثیر طولانی‌مدت شیوه‌‌های معرفی شده توسط پینو و دیگران بمانیم. آیا این عادت‌‌‌های مخرب برای همیشه تغییر می‌‌کنند؟ این تلاش‌ها چه تفاوتی در پیشرفت هوش مصنوعی در خارج از پروژه‌های تحقیقاتی و سازمان‌های پژوهشی ایجاد خواهند کرد؟ در هر صورت، تحقیقات هوش مصنوعی هنوز تحت سلطه شرکت‌‌های بزرگ است. اگر روند اطلاع‌رسانی درباره نتایج این پژوهش‌ها به درستی انجام شود، نتایج بهتری در انتظار ما خواهد بود.

جدیدترین اخبار هوش مصنوعی ایران و جهان را با هوشیو دنبال کنید.

 

ترندهای هوش مصنوعی در سال ۲۰۲۱ را بشناسید

مقاله قبلی

هوش مصنوعی مبتنی بر زبان هنوز به انسان نیاز دارد

مقاله بعدی

شما همچنین ممکن است دوست داشته باشید

بیشتر در اخبار

نظرات

پاسخ دهید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *