Filter by دسته‌ها
chatGTP
ابزارهای هوش مصنوعی
اخبار
گزارش
تیتر یک
چندرسانه ای
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
دانش روز
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
دیتاست
رویدادها
جیتکس
کاربردهای هوش مصنوعی
کتابخانه
اشخاص
شرکت‌های هوش مصنوعی
محصولات و مدل‌های هوش مصنوعی
مفاهیم
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
مقاله
 مسیری به سوی مسئولیت‌پذیری هوش مصنوعی

مسیری به سوی مسئولیت‌پذیری هوش مصنوعی

زمان مطالعه: 3 دقیقه

تصور کنید شما یک فضانورد هستید که برای ماموریت اعزام به مریخ انتخاب شده‌اید. در این میان، علاوه بر مسئولیت‌‌‌های پژوهشی، بعضی وظایف فنی را نیز بر عهده دارید و برخی دیگر از عملکردهای اصلی سفینه فضایی شما مثل تنظیم دما، اکسیژن‌رسانی و غیره توسط یک سیستم هوش مصنوعی مدیریت می‌‌شود. همه چیز به خوبی پیش می‌‌رود و حدود شش تا هشت ماه زمان می‌‌برد، تا به مریخ برسید. تا این‌که در نیمه راه ماموریت خود، بی‌دلیل شروع به عرق کردن می‌‌کنید. بررسی می‌‌کنید و می‌‌بینید کانال‌‌‌های گرمایشی سفینه به‌طور خودکار روی بیشترین درجه ایجاد بخار تنظیم شده‌‌اند. سپس احساس سبکی در سر می‌‌کنید. این‌‌‌ها همه علامت‌‌‌های این است که اکسیژن کافی در هوا وجود ندارد.

در چنین شرایطی واضح است که سیستم هوش مصنوعی عملکرد نادرستی داشته است. خوشبختانه، صفحه کنترل سفینه دارای یک تنظیم دستی است که به شما امکان می‌‌دهد سیستم هوش مصنوعی را خاموش کنید. به این ترتیب، به راحتی کنترل دستی را انجام می‌‌دهید و مشکل دما و اکسیژن‌رسانی سفینه را برطرف می‌‌کنید. شما این اتفاق و تغییراتی که ایجاد کرده‌اید را برای همکار و هم‌خدمه خود در سفینه شرح می‌‌دهید و سپس راهی کابین خلبان می‌‌شوید.

در حالی که دارید به سمت پنل کنترل می‌‌روید، متوجه می‌‌شوید که درهای کابین خلبان گیر کرده‌‌‌اند و باز نمی‌‌شوند. با بررسی بیشتر، در می‌‌یابید که آن‌‌‌ها قفل شده‌‌‌اند و پنل دسترسی هم کار نمی‌‌کند. بله! سیستم هوش مصنوعی دسترسی شما را بسته و شما را بلاک کرده است! و این پیام روی بورد اصلی اعلان‌ها برای شما ظاهر می‌‌شود:

«متاسفم! نمی‌‌توانم اجازه چنین کاری را به شما بدهم!»

مسئولیت پذیری هوش مصنوعی

برای آن دسته از شما که فیلم اودیسه فضایی محصول سال 2001 را ندیده‌اید، این توضیح لازم است که: این سناریویی که اکنون خواندید، بر اساس اوج گره داستانی این فیلم است؛ یعنی جایی که سیستم هوش مصنوعی ((HAL 9000 به دلیل یک پارادوکس غیرقابل حل در سیستم، سعی در کشتن خدمه اودیسه فضایی دارد. بگذارید مفصل‌‌تر به این موضوع بپردازیم.

چالش تعارض منافع چیست؟

سیستم هوش مصنوعی HAL 9000 دو دستور کاملا متناقض دریافت کرده بود که بر اساس منطق با یکدیگر ناسازگار بودند. از همین رو، سیستم برای حل این تعارض که به آن تعارض منافع می‌گویند، سعی داشت خدمه انسانی سفینه فضایی را بکشد. اما مشکل از کجا بود؟ هدف کلی HAL این بود که اطلاعات را به طور دقیق به خدمه انسانی سفینه منتقل کند، اما همچنین به او برنامه داده شده بود که از ارائه این اطلاعات به دو نفر از اعضای خدمه سفینه فضایی خودداری کند. HAL با منطق و هوش ماشینی خود این‌طور نتیجه‌گیری کرده بود که بهترین راه برای رسیدن به هدف کلی برنامه‌ریزی شده‌اش، کشتن خدمه انسانی است. به این ترتیب، سیستم هوش مصنوعی HAL دیگر هیچ اطلاعات نادرستی را به خدمه اعلام نمی‌‌کرد و اطلاعات را از خدمه دریغ می‌‌کرد.

در تحقیقات هوش مصنوعی، این نوع سناریو را همگرایی ابزاری می‌نامند. یعنی جایی که سیستم برای رسیدن به هدف خود هر نوع اقدامی که لازم باشد را انجام خواهد داد. بنابراین وقتی HAL دو فضانورد را کشت، این کار برایش یک هدف جزئی کاملاً ابزاری بود که سیستم هوش مصنوعی را قادر می‌‌ساخت تا به هدف کلی انتقال دقیق اطلاعات برای خدمه دست یابد.

در این مثال می‌‌توانیم ببینیم که چگونه سیستم‌‌‌های هوش مصنوعی می‌‌توانند به نام یک هدف مطلوب، با منطق ماشینی خود به تصمیمات نامطلوب برسند. سوال این است که وقتی سیستم‌‌‌های هوش مصنوعی می‌‌توانند هر چیزی را به نام مأموریت خود توجیه کنند، چه کار باید بکنیم؟ همان‌طور که استوارت راسل می‌‌گوید: «اگر مرده باشید نمی‌‌توانید قهوه را بیاورید.» پس در تعامل با هوش مصنوعی، اول از همه باید به فکر راه‌حل‌های ادامه موجودیت و حفظ حیات باشیم.

چگونه این چالش را برطرف کنیم؟

طراحی مفهوم عدم اطمینان برا هوش مصنوعی

دو روش برای تعبیه مفهوم عدم اطمینان در پایه‌‌‌های فناوری هوش مصنوعی وجود دارد و به زبان آوردن هر دوی این روش‌‌‌ها آسان‌‌تر از انجام آن‌‌‌ها است. اولین مورد ایجاد تعریف عدم اطمینان در محاسبات رفتاری هوش مصنوعی است.

برآوردها و محاسبات نسبی برای مقابله با دستورات کلی

کارهای پیتر اکرسلی نشان می‌‌دهد که می‌‌توانیم با تنظیمات نسبی یا توزیع یک‌سری احتمالات نسبت به کل دستورات به هوش مصنوعی، از برخی از این خطرات جلوگیری کنیم. این روش‌‌‌ها بدان معنا است که سیستم‌‌‌های هوش مصنوعی که عملکرد پرمخاطره‌ای دارند، برای تصمیم‌گیری به سطح مشخصی از عدم اطمینان نیاز دارند.

به این موضوع این‌طور فکر کنید: عدم اطمینان همانند یک پادزهر در برابر تمامیت‌خواهی عمل می‌کند. عدم قطعیت مانند گوِه‌ای عمل می‌‌کند که یک شکاف کوچک برای تردید در تصمیمات را باز نگه می‌‌دارد. این تئوری می‌‌گوید تا زمانی که سیستم‌‌‌های هوش مصنوعی ما کاملاً از یک نتیجه یا هدف، مطمئن نباشند، می‌‌توان اطمینان بیشتری داشت که وضعیت HAL 9000 اتفاق نخواهد افتاد.

لازم نیست حتما هدف را مشخص کنیم

روش دیگر برای جلوگیری از مشکلات مربوط به همگرایی ابزاری، رویکرد بسیار گسترده‌تری را در بر می‌‌گیرد. اگر بخواهیم عدم اطمینان را در اهداف خود جاسازی کنیم، پس ممکن است بتوانیم به طور کلی از این مشکلات جلوگیری کنیم. به بیان ساده، اگر ما به روبات هدف ندهیم، آن روبات هیچ توجیهی برای تصمیمات جزئی و هدف‌گذاری‌‌‌های کوچک ابزاری نخواهد داشت. بدون وجود یک هدف خاص، دیگر هدف نمی‌‌تواند وسیله را توجیه کند.

البته، این مسئله کاملاً مشکلات جدیدی را به ویژه درباره ویژگی و سودمندی به وجود می‌‌آورد. اگر از به اصطلاح «هدف نامشخص» یا یک هدف گسترده استفاده کنیم، چگونه می‌‌توانیم این عدم اطمینان را به گونه‌ای ایجاد کنیم که کامپیوتر بتواند به طور مفیدی آن هدف را عملی کند؟

اگر از مسئله اساسی اجرای عملی عدم اطمینان در طراحی چشم‌پوشی کنیم، شاید بتوانیم از عواقب بالقوه فاجعه باری که در اودیسه فضایی سال 2001 مشاهده کردیم، جلوگیری کنیم.

عدم اطمینان مثل یک پادزهر است

موهبت عدم اطمینان شباهت زیادی به اخلاق انسانی دارد. بسیاری از ظالمانه‌ترین لحظات بشریت از یک آموزه قطعی و یقینی اخلاقی ناشی شده است، جایی که مردم برای توجیه اقدامات وحشتناک خود از مجموعه‌ای از باورهای صحیح اخلاقی استفاده می‌‌کنند. جنایات رژیم‌‌‌های توتالیتر قرن گذشته نمونه‌‌‌های زنده‌ای از چگونگی دیدگاه اطمینان‌بخش اخلاقی به یک فاجعه است.

بنابراین وقتی صحبت از سیستم‌‌‌های هوش مصنوعی و مسئولیت‌پذیری هوش مصنوعی هوش مصنوعی پرمخاطره می‌‌شود، مانند سلاح‌‌‌های خودکار، منابع پزشکی یا تصمیمات مربوط به عدالت کیفری، عدم اطمینان به سیستم هوش مصنوعی می‌‌تواند از عدم انطباق فاجعه‌بار بین ارزش‌‌‌های انسانی و رفتار هوش مصنوعی جلوگیری کند.

میانگین امتیاز / 5. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
[wpforms id="48325"]