جدیدترین تحولات هوش مصنوعی را در کانال بله هوشیو بخوانید

Filter by دسته‌ها
chatGTP
ابزارهای هوش مصنوعی
اخبار
گزارش خبری
پرامپت‌ نویسی
تیتر یک
چندرسانه ای
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
دانش روز
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
خطرات هوش مصنوعی
دیتاست
مدل‌های بنیادی
رویدادها
جیتکس
کاربردهای هوش مصنوعی
کتابخانه
اشخاص
شرکت‌های هوش مصنوعی
محصولات و مدل‌های هوش مصنوعی
مفاهیم
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
مقاله
پیاده‌سازی هوش مصنوعی
گزارش
مصاحبه
هوش مصنوعی در عمل
 آیا یک هوش مصنوعی می‌تواند تصادفاً همه ما را به گیره کاغذ تبدیل کند؟

راهنمای کلیدی نیو ساینتیست: انقلاب هوش مصنوعی

آیا یک هوش مصنوعی می‌تواند تصادفاً همه ما را به گیره کاغذ تبدیل کند؟

زمان مطالعه: 2 دقیقه

هوش مصنوعی کاری را که از آن می‌خواهید انجام می‌دهد، اما نه لزوماً آن چیزی که منظورتان است.

در سال ۲۰۰۳ «نیک بوستروم» (Nick Bostrom) فیلسوف دانشگاه آکسفورد، یک آزمایش فکری را مطرح کرد. تصور کنید به یک هوش مصنوعی ابر‌هوشمند یا به اصطلاح رایج Superintelligent؛ گفته شود هدف آن تولید هرچه بیشتر گیره کاغذ است. بوستروم پیشنهاد کرد که این هوش مصنوعی می‌تواند به‌سرعت تصمیم بگیرد که نابودی تمام انسان‌ها برای مأموریتش حیاتی است؛ هم به این دلیل که ممکن است آن را خاموش کنند و هم به این دلیل که آن‌ها پر از اتم‌هایی هستند که می‌توانند به گیره کاغذ بیشتر تبدیل شوند.

گزارش حاضر در «راهنمای کلیدی نیو ساینتیست: انقلاب هوش مصنوعی» منتشر و در «رسانه تخصصی هوش مصنوعی هوشیو» به زبان فارسی نیز ترجمه شده و در دسترس مخاطبان این حوزه قرار گرفته است.

البته که این سناریو مضحک است؛ اما یک مسئله نگران‌کننده را نشان می‌دهد. هوش مصنوعی مثل ما «فکر» نمی‌کند و اگر ما در بیان دقیق آنچه از آن‌ها می‌خواهیم انجام دهد بسیار محتاط نباشیم، هوش مصنوعی می‌تواند به روش‌های غیرمنتظره و آسیب‌زننده‌ای رفتار کنند. «برایان کریستین» (Brian Christian)، نویسنده کتاب «مسئله هم‌راستایی» (The Alignment Problem) و محقق مهمان دانشگاه برکلی می‌گوید: «سیستم آنچه را که شما واقعاً مشخص کرده‌اید بهینه می‌کند، نه آنچه را که قصد داشتید.»

آن مشکل به این سؤال خلاصه می‌شود که چگونه اطمینان حاصل کنیم مدل‌های هوش مصنوعی تصمیماتی همسو با اهداف و ارزش‌های انسانی می‌گیرند. چه نگران خطرات وجودی بلندمدت مانند انقراض بشریت باشید یا چه نگران آسیب‌های فوری مانند اطلاعات غلط و تعصب ناشی از هوش مصنوعی باشد؛ با مسئله مهمی روبه‌رو هستیم.

برخی پژوهشگران هوش مصنوعی گمان می‌کنند که «هم‌راستایی» کاری بیهوده است. «رومن یامپولسکی» (Roman Yampolskiy) از دانشگاه Louisville معتقد است همیشه تعادلی بین قابلیت‌های یک هوش مصنوعی و توانایی ما برای کنترل آن وجود خواهد داشت. او ادعا می‌کند که از طریق کار نظری نشان داده است که اجزای کلیدی مورد نیاز برای کنترل هوش مصنوعی؛ یعنی پیش‌بینی و توضیح تصمیمات آن، تأیید اینکه از طراحی خود پیروی می‌کند و تعیین اهداف به‌خوبی تعریف‌شده، در مواجهه با هوش مصنوعی ابرهوشمند اساساً غیرممکن است.

ملانی میچل نیز می‌گوید حقیقت این است که اصلاً روشن نیست ما در یک حرکت اجتناب‌ناپذیر به سمت «ابرهوش مصنوعی» (Artificial Superintelligence) باشیم. این بدان معناست که شاید بهتر باشد نگران آسیب‌های کوتاه‌مدت هوش مصنوعی ناهم‌راستا باشیم. درهرصورت، دلیلی وجود دارد که باور کنیم کل این تلاش ممکن است ذاتاً ناقص باشد.

تمام شواهد از علوم اعصاب و روان‌شناسی نشان می‌دهد که توسعه هوش در انسان‌ها ذاتاً با اهداف ما پیوند خورده است؛ بنابراین بعید به نظر می‌رسد که بتوانید ارزش‌های انسانی را به ماشینی که تحت شرایط کاملاً متفاوتی توسعه یافته است، منتقل کنید. میچل می‌گوید: «یک سیستم واقعاً هوشمند، واقعاً ارزش‌های خودش و اهداف خودش را خواهد داشت که تحت‌تأثیر هر چیزی که یاد گرفته است قرار دارند، درست به همان شیوه‌ای که ما هستیم.»

گزارش حاضر در «راهنمای کلیدی نیو ساینتیست: انقلاب هوش مصنوعی» منتشر و در «رسانه تخصصی هوش مصنوعی هوشیو» به زبان فارسی نیز ترجمه شده و در دسترس مخاطبان این حوزه قرار گرفته است.

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها

در جریان مهم‌ترین اتفاقات AI بمانید

هر هفته، خلاصه‌ای از اخبار، تحلیل‌ها و رویدادهای هوش مصنوعی را در ایمیل‌تان دریافت کنید.

[wpforms id="48325"]