Filter by دسته‌ها
chatGTP
ابزارهای هوش مصنوعی
اخبار
گزارش
تیتر یک
چندرسانه ای
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
دانش روز
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
دیتاست
رویدادها
جیتکس
کاربردهای هوش مصنوعی
کتابخانه
اشخاص
شرکت‌های هوش مصنوعی
محصولات و مدل‌های هوش مصنوعی
مفاهیم
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
مقاله
 جنگ بر سرِ آینده فناوری از دید کارشناسان هوش مصنوعی

جنگ بر سرِ آینده فناوری از دید کارشناسان هوش مصنوعی

زمان مطالعه: 6 دقیقه

اینکه جنگ بر سرِ آینده فناوری از دید کارشناسان هوش مصنوعی چیست و به کجا خواهد رسید سال‌هاست که از چالش‌های همیشگی کارشناسان هوش مصنوعی بوده است. هوش مصنوعی از دهه 1950 میلادی با فراز و نشیب‌های فراوانی روبه‌رو بوده است.

اگرچه در سال‌های اخیر و به لطف یادگیری عمیق در حوزه هوش مصنوعی، پیشرفت‌های قابل‌توجهی حاصل شده، اما هوش مصنوعی کماکان در برابر حملات، از خود آسیب‌پذیری نشان داده و توانایی سازگاری با محیط‌های در حال تغییر را ندارد. تمامی این چالش‌ها و مشکلات، باعث عدم اطمینان کامل به فناوری هوش مصنوعی شده و ظرفیت آن را برای به‌کارگیری سودمندانه در جامعه محدودتر کرده است.
در 26 مارس 2020 و در مدت رویداد سالیانۀ «EmTech»در حوزه دیجیتال، دو شخصیت برجسته حوزه هوش مصنوعی درباره چالش‌های پیش رو و یافتن راهکاری مناسب برای فائق آمدن بر این مشکلات به بحث و تبادل نظر پرداختند.
«گری مارکوس» استاد بازنشستۀ دانشگاه نیویورک و بنیان‌گذار و مدیر عامل «Robust.AI» یکی از منتقدان مشهور یادگیری عمیق است. وی در کتاب خود تحت عنوان «Rebooting AI» که سال گذشته به چاپ رسید، اظهار داشت که معایب هوش مصنوعی ریشه در این روش دارد. بنابراین، او مدعی شده که محققان باید فراتر از یادگیری عمیق گام برداشته و آن را با سیستم‌های هوش مصنوعیِ نمادین یا کلاسیک ادغام نمایند؛ سیستم‌هایی که دانش را رمزگذاری کرده و از قابلیت استدلال برخوردار هستند.
«دنی لانج» نایب رئیس حوزه هوش مصنوعی و یادگیری ماشینی در «Unity» از یادگیری عمیق طرفداری می‌کند. وی تا کنون به عنوان مدیر یادگیری ماشینی در شرکت تاکسی‌رانی اینترنتی «Uber»، مدیر کل یادگیری ماشینی آمازون و یکی از کارشناسان این حوزه در شرکت مایکروسافت سابقه فعالیت داشته است و در طول فعالیت چندساله خود، همواره از قابلیت‌های نویدبخش هوش مصنوعی صحبت کرده است. او هم‌اکنون در «Unity» مشغول به همکاری با آزمایشگاه‌هایی نظیر «DeepMind» و «OpenAI» است. هدف از این همکاری، کمک به ساخت محیط‌های آموزشی مجازی است که در آن الگوریتم‌ها بتوانند درکی از جهان حقیقی یاد بگیرند.
درطول این رویداد، هریک از سخنران برای مدتی کوتاه، سخنرانی کوتاهی را ارائه داده و برای برگزاری بحث و گفتگو در این حوزه، گردهم می‌آمدند. مخالفت‌هایی که درطول این گردهمایی مطرح شد، بازتاب‌دهندۀ چالش‌ها و دیدگاه‌های متفاوت در حوزه هوش مصنوعی و نحوه شکل گرفتن این تکنولوژی به لطف تنوع و گستردگی ایده‌های تازه است. با توجه به تمامی این صحبت‌ها و گفتگو‌ها، می‌توان به وضوح دید که قاطعیت چندانی در حوزه گام بزرگ بعدی فناوری هوش مصنوعی وجود ندارد و ممکن است شاهد تغییراتی باشیم که پیش از این، انتظار آن را نداشتیم.
در زیر خلاصه‌ای از این بحث را می‌خوانید.

گری، تو با تکیه بر تخصص خودت در علوم اعصاب و روان‌شناسی، سعی کردی به این مسئله پاسخ بدهی که هم‌اکنون هوش مصنوعی با چه چالش‌هایی دست‌و‌پنجه نرم می‌کند. از نگاه تو، چه عاملی هوش مصنوعیِ کلاسیک را به سیستمی مناسب برای ادغام با یادگیری عمیق تبدیل می‌کند؟

گری مارکوس: اولیه نکته‌ای که باید به آن اشاره کنم این است که ما احتمالاً به یک سری سیستم‌های ترکیبی نیاز خواهیم داشت که بسیار پیچیده‌تر از یادگیری عمیق و هوش مصنوعی کلاسیک هستند. البته چیزهای دیگری هم شاید وجود داشته باشد که حتی خواب‌شان را هم ندیده‌ایم! به همین خاطر باید با نگرشی باز و پذیرا به جنگ بر سرِ آینده فناوری نگاه کنیم.
چرا باید هوش مصنوعی کلاسیک را به این ترکیب اضافه کرد؟ خب، استدلال‌های مختلف ما همگی بر پایه دانش‌مان در جهان استوار است؛ یادگیری عمیق این مورد را بازتاب نمی‌دهد. هیچ روشی در این سیستم‌ها وجود ندارد که بتوان به آنها نشان داد توپ یا بطری چیست و این‌ها چه تاثیری روی همدیگر می‌گذارند. بنابراین نتایج خوب و امیدبخش‌ به نظر می‌رسند، اما قابلیت تعمیم آنها خیلی کم است.
هوش مصنوعی کلاسیک می‌تواند یک جمله را به بخش‌های معنایی مختلف تجزیه کند، یا دانشی درباره اتفاقات جهان بدست آورده و بر اساس آنها استنتاج نماید. البته هوش مصنوعی کلاسیک مشکلات خودش را هم دارد: برای مثال، معمولا فاقد پوشش کافی است چرا که بخش اعظم آن به صورت دست‌نوشته است، اما حداقل در تئوری، این تنها روش برای تولید سیستم‌هایی است که توانایی انجام کارهایی مثل استنتاج منطقی و استقراء در دانش انتزاعی را دارند. البته کماکان بدین معنا نیست که استدلال‌های آن کاملا صحیح‌اند، اما در حال حاضر بهترین ابزاری است که در اختیار داریم.
همچنین شواهد و مدارک روان‌شناسی موجود، گویای آن است که افراد تا حدودی قادر به نمایش نمادین هستند. من قبلاً با آزمایش‌هایی که بر روی کودکان هفت‌ماهه انجام دادم، به این نتیجه رسیدم که کودکان توان تعمیم دادن دانش نمادین را دارند. بنابراین اگر یک کودک هفت‌ماهه قادر به انجام چنین کاری باشد، چرا همچنان به دنبال ساخت سیستم هوش مصنوعی بدون سازوکارهایی هستیم که کودکان از آن برخوردارند؟

آیا تابه‌حال محققان موفق شده‌اند در پروژه‌های خود یادگیری عمیق و هوش مصنوعی را به شیوه‌ای نویدبخش ادغام کنند؟

گری مارکوس: من در مقاله‌ای با عنوان «دهه بعدی در هوش مصنوعی» به 20 پروژۀ اخیر اشاره کردم که استفاده از مدل‌های ترکیبی را در دستور کارشان قرار داده بودند که در این مدل‌ها، سطحی مشخص از یادگیری عمیق و دانش نمادین به کار گرفته شده است. یک مثال که همه با آن آشنا هستند، جستجوی گوگل است. وقتی در یک موتور جستجو تایپ می‌کنید، هوش مصنوعی کلاسیک سعی می‌کند تا واژگان را ابهام‌زدایی کند. مثلا وقتی که از «پاریس» حرف می‌زنید، هوش مصنوعی به دنبال پی بردن به این مسئله است که آیا منظورتان پاریس هیلتون است یا پاریسِ فرانسه. در این راستا، از نمودار دانش گوگل استفاده می‌شود. سپس از یادگیری عمیق برای انجام برخی کارهای دیگر استفاده می‌کند؛ مثل یافتن مترادف‌ها با استفاده از مدل « BERT». البته جستجوی گوگل، آن هوش مصنوعیِ ایده آل که به دنبالش هستیم نیست، اما جستجوی گوگل این گواهی را به ما می‌دهد که باید به تلاش خود‌ ادامه داده و رویای‌مان را در این حوزه تحقق ببخشیم.

دنی، آیا موافق هستی که باید از این مدل‌های ترکیبی استفاده کنیم؟

دنی لانج: خیر، من موافق نیستم. مشکل من با هوش مصنوعی نمادین اینجاست که این فناوری می‌خواهد بطور جامع از مغز انسان تقلید کند. این اقدام مرا به یاد قرن 18 می‌اندازد، دورانی که اگر به دنبال حمل‌و‌نقل سریع بودید، اقدام به ساخت اسب مکانیکی می‎‌کردید؛ به جای اینکه موتور احتراق را اختراع کنید. بنابراین، من درباره تلاش برای حل هوش مصنوعی با تقلید از مغز انسان خیلی تردید دارم.
یادگیری عمیق لزوما یک راهکار جادویی نیست، اما اگر داده‌های کافی در اختیار یادگیری عمیق قرار دهیم و از ساختار شبکه عصبی مناسبی بهره‌مند باشیم، یادگیری عمیق قادر به یادگیری آن دسته از مفاهیم انتزاعی خواهد بود که ما انسان‌ها از تفسیر آن مفاهیم عاجز هستیم. این کار می‌تواند کارآیی سیستم را برای حل طیف وسیعی از کارها افزایش دهد.
به نظر می‌رسد شما دیدگاه‌های کاملا مخالفی درباره اهداف هوش مصنوعی دارید.

گری مارکوس: من در ماه دسامبر 2019 با «یوشوآ بنجیو» گفت‌وگویی داشتم. بجیو گفت که تنها نقش مثبت یادگیری عمیق این است که بنیان آن روی عصب‌شناختی استوار باشد. من دیدگاه‌های کاملاً مخالفی در خصوص یادگیری عمیق شنیده‎‌ام. این موضوع کمی عجیب است و به نظر من نباید این گفته‌ها را زیاد جدی بگیریم. در عوض، باید این پرسش مطرح کنیم: «آیا نمادها می‌توانند به ما کمک کنند؟» بله، بی‌تردید. تقریباً تمامی نرم‌افزارهای جهان بر اساس نمادها ساخته شده‌اند. شاید پرسش بعدی‌تان این باشد: «از دید تجربی، آیا یادگیری عمیق همان کاری را انجام می‌دهد که ما انتظار انجامش را داریم؟» مشکل اینجاست که یادگیری عمیق عاری از مدل است.

دلیل اصرار ما بر تجدید نظر در خصوص قابلیت‌های انسان این است که انسان می‌تواند برخی از کارها را خیلی بهتر از سیستم‌های یادگیری عمیق انجام دهد. البته نباید این‌طور برداشت کرد که انسان‌ها سرانجام به عنوان مدل مناسب مورد استفاده قرار خواهند گرفت، در واقع ما به دنبال ساخت سیستم‌هایی هستیم که ترکیبی از ویژگی‌های رایانه‌ و انسان را داشته باشند، اما از آنجایی که انسان تنها مدل یک سیستم است که می‌تواند درک عمیقی از موضوعی خاص داشته باشد، باید این مدل را جدی گرفت.

دنی لانج: پس مثالی که در آن گفته می‌شود زبان‌های برنامه‌نویسیِ جهان نمادین هستند، واقعیت دارد زیرا هدف از طراحی آنها، تحقق بخشیدن به افکار و ایده‌های انسان است. یادگیری عمیق نسخه کپی از مغز انسان نیست. شاید بتوان گفت که یادگیری عمیق از سیستم عصبی الهام گرفته شده است، اما این یک نرم‌افزار است. ما در حال حاضر موفق به رمزگشایی ابعاد ژرف بحث یادگیری عمیق نشده‌ایم. ما حجم محدودی از داده‌های آموزشی در اختیار داریم. ساختارهای قابل‌دسترس ما نیز محدود هستند. افزایش قدرت محاسباتی یکی از نیازهای مبرم ماست. اما نباید این نکته کلیدی را فراموش کرد که یادگیری عمیق، مفهوم و ویژگی‌ها را فرامی‌گیرد. این کار، دستکاری شده و مهندسیِ شده بدست انسان نیست. فکر می‌کنم تفاوت بزرگ میان روشِ گری و روش من این است که آیا مهندسان عامل «هوش» را در سیستم تعبیه می‌کنند یا سیستم خودش به یادگیری «هوش» خواهد پرداخت.

دنی، تو اشاره کردی که یادگیری عمیق به دلیل محدودیت داده‌ای و محاسباتی قادر نیست ظرفیت‌های خود را به طور کامل نشان دهد. با توجه به اینکه یادگیری عمیق خیلی ناکارآمد است، بهتر نیست روش‌های جدیدی توسعه پیدا کنند؟ ما برای رمزگشایی و استفاده از قابلیت‌های جدید یادگیری عمیق، مجبور به افزایش چشمگیرِ محاسبات بودیم.

دنی لانج: یکی از مشکلات اصلی یادگیری عمیق، توسعه آن برپایه یک نوعی روش کلاسیک است؛ یعنی ما یک مجموعه‌داده آموزشی بزرگ را ایجاد کرده و سپس آن را وارد سیستم می‌کنیم. یکی از چیزهایی که می‌تواند یادگیری عمیق را بهبود ببخشد، برخورداری از یک فرآیند یادگیری فعال است. بر این اساس شبکه آموزش داده شده تا داده‌های آموزشی بهینه‌سازی شوند و دیگر مجبور به افزودن مقادیر عظیمی داده به شبکه نیستیم تا فرایند یادگیری را بهبود پیدا کند؛ شما می‌توانید به طور پیوسته، داده‌های آموزشی خود را برای رسیدن به یک نقطه مشخص بکار بگیرید.

گری، تو به آسیب‌پذیر بودنِ یادگیری عمیق در برابر بایاس (سوگیری) و حملات خصمانه اشاره کردی. دنی، تو گفتی که داده‌های مصنوعی راه‌حل مناسبی برای این مشکل است زیرا هیچ نوع سوگیری در کار نیست و افزون براین، امکان انجام میلیون‌ها شبیه‌سازی وجود دارد که مصون از این حملات خصمانه هستند. پاسخ شما به این مسائل چیست؟

گری مارکوس: داده کماکان نمی‌تواند به تنهایی یک راه‌حل قلمداد شود. داده‌های مصنوعی این قابلیت را ندارند که در مواردی همچون اعطای وام یا مصاحبه‌های شغلی، جلوی سوگیری را بگیرند. مشکل اصلی این است که این سیستم‌ها دچار نوعی از سوگیری می‌شوند که دلایل آن ریشه تاریخی دارد. درحال حاضر عده‌‎ای به جای استفاده‌ از داده‌های مصنوعی، مشغول ساخت سیستم‌هایی هستند که بتواند سوگیری‌های فرهنگی را به خوبی درک کند.
حملات خصمانه مقوله کاملاً متفاوتی هستند. شاید داده‌ها جلوی برخی از این حملات را بگیرند، اما کماکان طیف وسیعی از حملات خصمانه انجام می‌شوند و عملاً امکان پیشگیری از آنها وجود ندارد. سیستم‌هایی که کاملاً داده‌محور هستند، همواره آسیب‌پذیر خواهند بود.

دنی لانج: داده‌های جهان حقیقی سوگیری زیادی دارند. به عنوان مثال، ما در محیط خاصی مثل وسایل نقلیه خودران به گردآوری داده می‌پردازیم و داده‌های ثبت شده از عبور و مرور 90 درصد از بزرگسالان و 10 درصد از کودکان در خیابان‌ها خبر می‌دهند. این توزیع نرمال است، اما سیستم یادگیری ماشینی باید بر اساس تعداد برابری از بزرگسالان و کودکان آموزش داده شود تا به هیچ یک از آن‌ها برخورد نکند. پس اگر جانب احتیاط را رعایت کنیم، می‌توانیم با داده‌های مصنوعی به برقراری تعادل پرداخته و از رخ دادن هرگونه سوگیری اجتناب کنیم. البته این بدان معنا نیست که امکان ایجاد سوگیری جدیدی وجود ندارد، باید مراقب این مسئله باشیم. در ضمن رخ دادن چنین موضوعی می‌تواند نگرانی‌های موجود در حوزه امنیت و حریم خصوصی را نیز کاهش دهد، چرا که در داده‌های آموزشی، هیچ بزرگسال یا کودک واعقی وجود نخواهد داشت. ما به حجم عظیمی از داده‌ها احتیاج خواهیم داشت تا بتوانیم چنین مدل‌های بینایی رایانه‌ای را ایجاد کرده و میزان فریب‌خوردگی‌ آن‌ها را به حداقل برسانیم.

کدام یک از جنبه‌های هوش مصنوعی از دید شما بیشترین جذابیت را دارد و در آینده خبرهای بیشتری از آن خواهیم شنید؟

گری مارکوس: در سال‌های اخیر شاهد جهش قابل‌توجهی به سمت مدل‌های ترکیبی بوده‌ایم. افراد به دنبال کاوش در مسائلی هستند که قبلاً رغبتی به آنها نشان داده نمی‌شد و به نظر من، این اقدام هیجان‌انگیزی است.
دنی لانج: من فکر می‌کنم سیستم‌های چندمدلی در آینده فناوری خبرساز خواهند بود. این سیستم‌ها از چندین مدل مختلف تشکیل یافته‌اند که در حوزه ادراک و رفتار به کار گرفته خواهند شد. به نظر من این سیستم‌ها در حل مسائل پیچیده نقش بزرگی ایفا خواهند کرد.

میانگین امتیاز / 5. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
[wpforms id="48325"]