ارزیابی پیشرفتها و خطرات هوش مصنوعی در گزارش جدید گروهی از دانشمندان
بر اساس آخرین گزارش گروهی از متخصصان بینالمللی که وضعیت هوش مصنوعی را ارزیابی میکنند، این فناوری در مسیر تکامل خود به نقطه عطف مهمی رسیده است.
پیشرفتهای چشمگیری که در پردازش زبان طبیعی، بینایی کامپیوتر و تشخیص الگوها بدست آمده است، از تاثیر روزافزون هوش مصنوعی بر زندگی روزمره مردم خبر میدهد. از جمله این تاثیرها میتوان به نقش این فناوری در توصیه فیلم به افراد یا ارتقای تشخیصهای پزشکی اشاره کرد.
علیرغم این موفقیتها، لزوم درک خطرات و معایب سیستمهای مبتنی بر هوش مصنوعی، از جمله سوگیری الگوریتمها یا استفاده از هوش مصنوعی برای فریبکاریهای عمدی، و کاهش آنها امری ضروری و فوری است. تیمهای مختلفِ دانشمندان کامپیوتر، متخصصان علوم اجتماعی و حقوق باید دست به دست یکدیگر دهند تا این مشکلات و معایب به حداقل برسد.
این نتایج از گزارشی با عنوان «انباشت قدرت و انباشت طوفان: گزارش کمیته مطالعات صد ساله هوش مصنوعی موسوم به AI100 (سال 2021)» اتخاذ شده است. گروهی از متخصصان علوم رایانه، سیاستگذاری عمومی، روانشناسی، جامعه شناسی و سایر رشتهها گردهم آمده و این گزارش را تدوین کردهاند.
این پروژهی در حال اجرا یکی از پروژهای موسسه هوش مصنوعی انسان محور دانشگاه استنفورد بوده و هدف آن نظارت بر پیشرفتهای هوش مصنوعی و هدایت پیشرفتهای آتی این حوزه است. این گزارش جدید که دومین گزارش منتشر شده از پروژه AI100 است، تحولات هوش مصنوعی را بین سالهای 2016 و 2021 ارزیابی میکند.
سرپرست گروه ارزیابی میگوید…
مایکل لیتمن، استاد علوم رایانه از دانشگاه براون و سرپرست این گروه پژوهشی، در این باره میگوید: «طی پنج سال گذشته، هوش مصنوعی که بیشتر به آزمایشگاههای تحقیقاتی یا سایر محیطهای کنترلشده محدود بود، به فناوریای بسیار تاثیرگذار در جامعه ارتقاء یافته است.
این پیشرفت واقعاً هیجان انگیز است زیرا این فناوری کارهای بینظری انجام میدهد، کارهایی که پنج یا 10 سال پیش غیر قابل تصور بودند. اما در عین حال، این حوزه با تاثیرات اجتماعی خود کنار آمده است و معتقدم مرحله بعدی دستیابی به راهکارهایی برای افزایش مزایای هوش مصنوعی و در عین حال به حداقل رساندن معایب آن است».
این گزارش که در شانزدهم سپتامبر 2021 منتشر شده است، به 14 سوال مطرح شده در زمینههای مهم توسعه هوش مصنوعی پاسخ میدهد. کمیته دائمی AI100 که متشکل از گروه مشهوری از رهبران هوش مصنوعی است، این سوالات را مطرح کرده و سپس هیئتی 17 نفری از محققان و متخصصان این حوزه سعی کردند به این سوالات پاسخ دهند.
برخی از سوالات این مجموعه شامل «مهمترین پیشرفتهای هوش مصنوعی کدامند؟» و «چالشهای جدی و حلنشده کدامند؟» میشود. دیگر سوالات به ریسکها و خطرات اصلی هوش مصنوعی، تأثیرات آن بر جامعه، درک عمومی آن و آینده این حوزه میپردازند.
گزارش تاثیرات هوش مصنوعی
اگرچه طی چند سال گذشته گزارشهای بسیاری در زمینه تأثیرات هوش مصنوعی نوشته شده است، اما طبق توضیحات پیتر استون، استاد علوم کامپیوترِ دانشگاه تگزاس در آستین، گزارش AI100 از این جهت منحصر به فرد است که از یک طرف، خودیهای هوش مصنوعی آن را به رشته تحریر در آوردهاند، یعنی متخصصانی که الگوریتمهای هوش مصنوعی را ایجاد کرده یا تأثیر آنها را بر جامعه اصلیترین رکن فعالیت حرفهای خود قلمداد میکنند، و از طرف دیگر، این گزارش بخشی از یک پژوهش در حال اجرای طولانی مدت، به قدمت یک قرن، است.
این مدیر اجرایی Sony AI America و دبیر کمیته دائمی AI100، معتقد است: «گزارش 2021 از این جهت حائز اهمیت است که با اظهار نظرِ کارشناسان در مورد تحولات پنج سال گذشته، به ارتباط تنگاتنگ این وقایع با گزارش 2016 پرداخته و جنبه دراز مدت AI100 را پررنگ میکند. این گزارش با پاسخگویی به مجموعهای از سوالات میتواند الگویی بیبدیل برای گروههای پژوهشی آینده تدوین کند. انتظار میرود دانشمندان طی بازه زمانی پنج ساله به ارزیابی این سوالات بپردازند».
گامی بزرگ
اریک هورویتز، افسر ارشد علمی مایکروسافت و همبنیانگذار پژوهش صدساله هوش مصنوعی، نیز کارِ این گروه پژوهشی را ستوده و اذعان میکند که بینش مشترک گروههای مختلف متخصصان هوش مصنوعی در مورد این گزارش مهم او را تحت تاثیر قرار داده است: «گزارش 2021 گامی بزرگ در جهت توصیف وضعیت فعلی و آینده هوش مصنوعی است. این گزارش شامل مواردی از قبیل ارزیابی گستره فعلی ادراک بشر از هوش مصنوعی و ارائه راهکارهایی در خصوص فرصتها و چالشهای اصلی پیش رو پیرامون تأثیرات هوش مصنوعی بر مردم و جامعه میشود».
به لحاظ پیشرفتهای هوش مصنوعی، این گروه پیشرفت قابل ملاحظهای در حوزههای فرعی هوش مصنوعی، از جمله پردازش زبان و گفتار، بینایی کامپیوتر و سایر حوزهها، گزارش کرده است. بسیاری از این پیشرفتها ناشی از توسعه تکنیکهای یادگیری ماشین، به ویژه سیستمهای یادگیری عمیق است که در سالهای اخیر از محیط دانشگاهی به کاربردهای روزمره ارتقاء یافته است.
برای مثال، در حوزه پردازش زبان سیستمهای مبتنی بر هوش مصنوعی فعلی نه تنها میتوانند کلمات را تشخیص دهند، بلکه میتوانند کاربرد دستوری آن کلمه و همچنین تغییر معنی آن در بافتهای مختلف را بفهمند. این امر منجر به بهبود جستوجوی تحت وب، نرمافزارهای متنی پیشبینیکننده، چت باتها و دیگر موارد شده است. برخی از این سیستمها در حال حاضر این قابلیت را دارند تا متنهای اصیلی تولید کنند که تشخیص آنها از متنهایی که انسان نوشته است، دشوار است.
طبق ارزیابی، در دیگر حوزهها نیز، سیستمهای هوش مصنوعی میتوانند با دقت بسیار بالایی سرطان و دیگر بیماریها را در حد یک متخصص تشخیص دهند.
از طرف دیگر، اگرچه اتومبیلهای خودران علیرغم وعدهها، هنوز به طور گسترده مورد استفاده قرار نگرفتهاند، اما سیستمهای هوش مصنوعی دستیار رانندگی، مانند هشدار خروج از خطوط Lane Departure Warning یا کنترل پیمایش سازگار adaptive cruise control، از جمله تجهیزات استاندارد اکثر خودروهای جدید به شمار میآیند.
ناچیز انگاری پیشرفتها
طبق توضیحات لیتمن، ناظران خارج از حوزه هوش مصنوعی ممکن است برخی از پیشرفتهای اخیر این حوزه را ناچیز انگارند، اما این پیشرفتها منعکسکننده گامهایی شگرفی در فناوریهای هوش مصنوعی به شمار میآیند. برای نمونه میتوان به استفاده از تصاویر پسزمینه در ویدئو کنفرانسها اشاره کرد. این قابلیت در دوران همهگیری کوید 19 به بخش جدانشدنی دورکاری بسیاری از افراد تبدیل شده است.
لیتمن در ادامه توضیح میدهد: «برای اینکه سیستم فرد را بر روی عکس پسزمینه قرار دهد، لازم است ابتدا او را از مناظر پشت سرش جدا کند (تشخیص تصویر فرد بر روی پسزمینه تنها در میان مجموعهای از پیکسلها، کار آسانی نیست). اگرچه قابلیت تشخیص پیشزمینه از پسزمینه پنج سال پیش در آزمایشگاه امکان پذیر بوده است، اما به طور قطع قابلیتی که اکنون در تمام رایانهها، به طور آنی و با نرخ فریم بالا امکان پذیر است، پیشرفت بسیار چشمگیری محسوب میشود».
البته پیشبینی این گروه در مورد ریسکها و خطرات هوش مصنوعی پادآرمانشهری نیست که در آن اَبَرهوشمند جهان را تحت کنترل خود درآورده باشد. به گزارش این گروه، خطرات واقعی هوش مصنوعی کمیظریفتر، اما به همان اندازه نگرانکننده هستند.
ارزیابی خطرات هوش مصنوعی
برخی خطرات مطرح شده در گزارش ارزیابی این گروه ناشی از سوءاستفاده عمدی از هوش مصنوعی است. منظور تصاویر و ویدئوهای جعلعمیق است که برای انتشار اطلاعات غلط یا خدشهدار نمودن اعتبار افراد استفاده میشوند یا رباتهای آنلاینی که برای دستکاری گفتمان و نظرات عمومی به کار میروند. از طرف دیگر، این برداشت در اذهان عمومی نقش بسته است که تصمیمگیری هوش مصنوعی به شکلی بیطرفانه و بدون سوگیری انجام میشود».
این برداشت به ویژه در حوزههایی مانند اجرای قانون یا بهداشت و درمان خطراتی را به همراه دارد. در حوزه قانون، سیستمهای پیشبینی جرم و جنایت بر گروههای رنگین پوست تأثیر منفی گذاشته و در حوزه بهداشت و درمان، سوگیریهای نژادی تعبیه شده در الگوریتمهای بیمه میتواند دسترسی افراد به مراقبتهای مناسب را تحت تأثیر قرار دهد.
با افزایش کاربردهای هوش مصنوعی، این مشکلات گستردهتر خواهند شد. به گفته لیتمن، خبر خوب این است که دانشمندان حوزه هوش مصنوعی این خطرات را جدی گرفته و با کمکِ متخصصان حوزههای روانشناسی، سیاستگذاریهای عمومی و سایر حوزهها فعالانه به دنبال راهی برای کاهش آنها هستند. ساختار گروه تدوینکننده این گزارش خود منعکسکننده وسیعتر شدن گستره هوش مصنوعی است.
لیتمن میگوید: «تقریباً نیمی از اعضای تشکیلدهنده این گروه از دانشمندان علوم اجتماعی و نیمی از متخصصان علوم کامپیوتر هستند و از اینکه میبینم دانش متخصصان علوم اجتماعی در مورد هوش مصنوعی بسیار زیاد است، بسیار خوشحالم. در حال حاضر، افرادی هستند که در حوزههای مختلف فعالیت میکنند، افرادی که در واقع متخصصان هوش مصنوعی محسوب میشوند. این روند خوبی است».
این گروه اذعان در ادامه گزارش ارزیابی خود میکند که دولتها، دانشگاهیان و صنعت، همه باید برای تکامل هوش مصنوعی در جهتی سازنده گام بردارند.
نظر شما در خصوص پیشرفتهای هوش مصنوعی و همچنین خطرات توسعه این فناوری چیست؟
جدیدترین اخبار هوش مصنوعی ایران و جهان را با هوشیو دنبال کنید