پاسخ ها و چالشها درمورد گفتمان انتقادی هوش مصنوعی
این روزها تفکر و گفتمان انتقادی در هوش مصنوعی از بررسی ویژگیهای خاص و سوگیریهای مدلهای مجزای هوش مصنوعی و عناصر فنی فراتر رفته است و به سوی به رسمیت شناختن اهمیت حیاتی مسائل نژادی، سیاسی، جنسیتی و نهادی رفته که سیستمهای هوش مصنوعی در دنیای واقعی را شکل میدهند. یکی دیگر از این تغییرات توجه بیشتر به جوامع و گروههایی است که بیشتر از همه در معرض آسیب و شکست سیستمهای هوش مصنوعی قرار دارند.
زمینههای تولید و استقرار ملی و فراملی، سیاسی، اقتصادی و نژادی با سوالهای زیادی مرتبط هستند از جمله اینکه سیستمهای هوش مصنوعی چگونه عمل میکنند و چه کسی از آنها منفعت میبرد؟ با این حال، بیشتر این تفکرات در حال حاضر ریشه در کشورهای توسعه یافته دارند و ناخواسته مسائل موجود در کشورهایی ارپوپایی و آمریکایی را به عنوان مبنای تفکر انتقادی هوش مصنوعی قرار میدهند.
همزمان که گفتمان انتقادی هوش مصنوعی توجه بیشتری را در سطح عموم به خود جلب میکند، به طور گستردهای به عنوان یک اصطلاج جامع برای چندین فناوری از جمله یادگیری ماشین و سایر سیستم های الگوریتمی که پیشبینیها و تصمیمگیریها را پیش میبرند استفاده میشود. این موضوع محدودیتهای پیرامون هوش مصنوعی و آنچه که باید باشد و نباشد را به گونهای ترسیم میکند که بینش ما را به بسیاری از اشکال طبقهبندیهای اجتماعی و سیاسی که قبلاً رایج بوده است محدود میکند و پایههایی را تشکیل میدهد که بسیاری از سیستمهای هوش مصنوعی به آن متکی هستند. این محدودیتهای جغرافیایی و محدودیتهای ذهنی و مفهومی برای تفکر انتقادی هوش مصنوعی مرتبط و حائز اهمیت هستند.
بنابراین نیاز فوری به توسعه و تجدیدنظر درباره تفکر انتقادی هوش مصنوعی وجود دارد. این بار باید به تاریخچه جنبشهای نژادی و دیگر جنبشها توجه کرد. همچنین باید طبقات کاست و قبیله و افراد بومی و نیازهای خاص آنها را که ریشه در محل زندگی دارد و معمولا خارج از جوامع غربی است، مدنظر قرار داد. ما به ارزیابی گستردهتری از روابط نژادی و جنسیتی نیاز داریم. درواقع فقط کافی نیست که بگوییم هویتهای کاست هنگام ورود به پایگاه داده کارکرد نژادی به خود میگیرند بلکه اقدامات متنوعی نیاز است.
مساله دیگر این است که بودجه و استقرار سیستمهای هوش مصنوعی در کشورهای توسعه نیافته با توجه به اینکه پروژههای زیرساختی آنها دستخوش تحولاتی است، بسیار کمتر یکنواخت و یکپارچه پیش میرود. در واقع جوامع پسااستعماری، زیرساختهای حاکمیتی و چارچوبهای قانونی آنها نیز توسط میراث استعمار شکل میگیرد. درگیری پیرامون قانونگذاری و شیوههای نگهداری مستندات، تلاشهای مبهم در دیجیتالسازی و وابستگیهای عمیق به شرکتهای خارجی منجر به غیرقابل اعتمادی شده است.
با توجه به این دلایل، نمیتوان فرض کرد که در جوامع توسعه نیافته اصطلاحاتی مانند انصاف، شفافیت و پاسخگویی داری همان معانی در بحث های هوش مصنوعی، اخلاق و حاکمیت هستند که در دیگر جوامع وچود دارد.
در واقع ممکن است در سطح جهانی، گفتمان کنونی هوش مصنوعی نتواند نیازها و نگرانیهای مرتبط به آینده هوش مصنوعی پیشرفته را منعکس کند. بنابراین چگونه باید کلمات کلیدی مانند انصاف، شفافیت، پاسخگویی، سوگیری، حسابرسی، توضیحپذیری، کالای اجتماعی و غیره دوباره تعریف و یا حتی دوباره بازتعریف شوند تا به نوعی منعکسکنندهی خواستههای جوامع غیر غربی از آیندهی فناوری باشد؟ چه اصطلاحات یا فرمولهایی در این گفتمان نادیده گرفته شدهاند؟
چگونه میتوان زمینهها و رویههای محلی، سیاسی، اداری، تاریخی و زیستمحیطی را در تمامی جهان مدنظر قرار دهیم تا درک فعلی ما از ارزشها و آرمانهایی که در بالا ذکر شد، جامع باشد؟ برای توصیف این خواستهها ممکن است به چه واژگان جدیدی نیاز داشته باشیم؟
اساسا ما به دنبال اطمینان از “منصفانه” بودن چه چیزی هستیم و در مورد “شفافیت” به چه مواردی نیاز داریم؟