ضرورت حرکت به سوی هوش مصنوعی؛ تقویت هوش انسانی با هوش مصنوعی
در حاشیه رویداد علوم اطلاعات و هوش مصنوعی که در تاریخ ۲۳ آبان ماه در کتابخانه ملی برگزار شد، «فاطمه کنعانی»، عضو هیئت علمی پژوهشکده مطالعات فناوری ریاست جمهوری، در پنل اخلاقپژوهی و هوش مصنوعی به بررسی چالشهای اخلاقی در حوزه هوش مصنوعی و ضرورت حکمرانی صحیح در این زمینه پرداخت.
در این گفتوگو، ایشان به مباحث مهمی چون چالشهای اخلاقی، ضرورت سیاستگذاری مناسب و کاربردهای هوش مصنوعی در عصر دیجیتال اشاره کردند.
حضور در نقطهای غیرممکن
فاطمه کنعانی با تأکید بر اهمیت حرکت به سمت هوش مصنوعی، گفت: «در عصر دیجیتال و با توجه به پیشرفتهای علمی و فناوری، ضروری است که جامعه بشری به تقویت هوش انسانی با استفاده از هوش مصنوعی توجه ویژهای داشته باشد. این حرکت نه تنها به توسعه و پیشرفت علمی کمک میکند، بلکه باید تحت مدیریت و حکمرانی صحیح قرار گیرد تا از هرگونه آسیب احتمالی به انسانها جلوگیری شود.»
ایشان ادامه دادند: «این تحول در دنیای دیجیتال و فناوریهای نوین، مشابه فیلمهای علمی تخیلی است که در آن به تصورات اولیه نسبت به پیشرفتهای علمی پرداخته میشود. حالا ما در نقطهای هستیم که آنچه که روزی در ذهنهای ما غیرممکن به نظر میرسید، به واقعیت تبدیل شده است.»
حکمرانی هوش مصنوعی: راهی برای مدیریت چالشهای اخلاقی
دکتر کنعانی به تفاوتهای میان «حکمرانی» و «سیاستگذاری» اشاره کرده و بیان داشت: «حکمرانی به معنای رهبری و هدایت است، مانند رهبری یک کشتی در دریا. در حالی که سیاستگذاری بیشتر به نقشهبرداری و دستورالعملها مربوط میشود. در حکمرانی باید به تمامی ذینفعان و بخشهای مختلف جامعه توجه شود و دولت نباید تنها نقش حاکم را ایفا کند.»
ایشان افزودند: «حکمرانی صحیح هوش مصنوعی باید شامل تعاملات میان دولت، جامعه مدنی و بخش خصوصی باشد. این تعاملات باید در جهت ایجاد یکپارچگی و همگرایی میان اولویتها و منافع مختلف پیش برود.»
چالشهای اخلاقی در هوش مصنوعی: نگاه به اصول انسانی
دکتر کنعانی با اشاره به اینکه بسیاری از چالشهای اخلاقی هوش مصنوعی در حال حاضر در سطح جهانی مطرح شده است، به اهمیت تطبیق الگوریتمها و مدلهای هوش مصنوعی با ارزشهای انسانی تأکید کردند: «اگر الگوریتمها بر اساس ارزشهای جامعه طراحی نشوند، نمیتوانیم انتظار داشته باشیم که نتایج آنها در خدمت رفاه انسانها و توسعه اجتماعی باشد. الگوریتمها باید منطبق بر هنجارهای اجتماعی و اخلاقی جامعه باشند.»
ایشان ادامه دادند: «در واقع، مسئولیت توسعه هوش مصنوعی تنها به عهده توسعهدهندگان و محققان این حوزه نیست، بلکه باید از همه نهادهای دولتی و اجتماعی حمایت لازم برای بهینهسازی و اخلاقیسازی این تکنولوژیها صورت گیرد.»
اصول اخلاقی در هوش مصنوعی: از رفاه انسانی تا شفافیت
دکتر کنعانی در پایان به اصول اخلاقی که باید در طراحی و توسعه هوش مصنوعی رعایت شوند اشاره کردند. ایشان اظهار داشتند: «هوش مصنوعی باید در جهت رفاه انسانی، محیطزیست و جامعه طراحی شود. این اصول باید در تمامی فرآیندهای توسعه و کاربرد هوش مصنوعی لحاظ شوند تا از هرگونه تبعیض، سوگیری و آسیب به جامعه جلوگیری شود.»
ایشان افزودند: «در طراحی هوش مصنوعی، عدالت، انصاف، و امنیت دادهها باید بهطور جدی رعایت شود. همچنین، شفافیت و قابلیت توضیح نتایج الگوریتمها نیز از اهمیت ویژهای برخوردار است. اگر یک سیستم هوش مصنوعی تصمیماتی میگیرد، باید بتوانیم مسیر اتخاذ آن تصمیمات را رصد کرده و توضیح دهیم که چرا این تصمیمات گرفته شدهاند.»
چالشها و آینده هوش مصنوعی: «هوش مصنوعی بهعنوان ابزار، نه تهدید»
دکتر کنعانی با اشاره به چالشهای مختلف موجود در توسعه هوش مصنوعی، به ویژه در زمینه تبعیضهای الگوریتمی و حریم امنیت دادهها، خاطرنشان کردند: «این تکنولوژی، اگرچه ابزار قدرتمندی است، اما باید تحت نظارت و مسئولیتپذیری قرار گیرد تا از ایجاد مشکلات اخلاقی و اجتماعی جلوگیری شود.»
ایشان تأکید کردند: «آینده هوش مصنوعی باید در راستای بهبود کیفیت زندگی انسانها باشد. ما نباید به این فناوری صرفاً به چشم تهدید نگاه کنیم، بلکه باید آن را ابزاری برای تسهیل و ارتقاء زندگی بشر در نظر بگیریم. استفاده مسئولانه از این ابزار میتواند به پیشرفتهای عظیمی در زمینههای مختلف منجر شود.»
در نهایت، دکتر کنعانی به این نتیجه رسیدند که برای استفاده بهینه از هوش مصنوعی، نیازمند سیاستگذاریهای مناسب و حکمرانی اخلاقی هستیم. این فرآیند باید با رعایت اصول اخلاقی و در نظر گرفتن منافع بلندمدت جامعه انجام شود. آنها همچنین بر لزوم همکاری بینالمللی در این زمینه تأکید کرده و گفتند: «تمامی کشورهای پیشرفته باید در بحثهای اخلاقی و حکمرانی هوش مصنوعی همراستا با یکدیگر پیش روند تا از تهدیدات احتمالی جلوگیری و از فواید آن بهرهبرداری شود.»