اختلافنظر سیاستگذاران درباره چگونگی تنظیم مقررات هوش مصنوعی
از نظر سیاستگذاران هوش مصنوعی قابلیت تغییر جهان را دارد، اما مشخص نیست که چگونه میتوان از پیامدهای مثبت آن اطمینان حاصل کرد.
طبق نتایج نظرسنجی جدید Clifford Chance از هزار نفر از سیاستگذاران که همگی از کارشناسان فناوری از ایالات متحده، بریتانیا، آلمان و فرانسه هستند، این افراد نگران اثرات هوش مصنوعی هستند؛ اما نگرانیِ تنها کافی نیست. با اینکه سیاستگذاران بهدرستی نگران امنیت سایبری هستند، اما ممکن است آنقدر بر روی تهدیدهای کوتاهمدت و آشکار هوش مصنوعی تمرکز کنند که از تهدیدات بلندمدت و پنهان آن، غافل شوند و حتی درباره چگونگی مقابله با مشکلات نوظهور هوش مصنوعی، توافق نظر نداشته باشند.
مشکلات هوش مصنوعی
شرکت YouGovدر نظرسنجیای که به نمایندگی از Clifford Chance انجام داد، نظر سیاستگذاران را در خصوص مسائلی جویا شد که باید در اولویت قانونگذاری قرار بگیرند (بهنظر شما، موارد زیر تا چه حد در تنظیم قوانین و مقررات جدید اولویت دارند؟) استفاده اخلاقی از هوش مصنوعی و سوگیری الگوریتمی رتبه بسیار پایینی را نسبت به سایر مسائل کسب کردند:
- امنیت سایبری: 94%
- حریم خصوصی، محافظت و اشتراک داده: 92%
- سوءاستفاده و استثمار جنسی کودکان: 90%
- اطلاعات نادرست/ دژاطلاعات: 86%
- مشارکت اقتصادی: 81%
- استفاده اخلاقی از هوش مصنوعی: 78%
- ایجاد فضای امن برای کودکان: 78%
- آزادی بیان در فضای مجازی: 76%
- رقابت عادلانه شرکتهای فناوری: 75%
- سوگیری و شفافیت الگوریتمی: 71%
- تعدیل محتوا: 70%
- رسیدگی به اقلیتها و محرومین: 70%
- سلامت عاطفی: 65%
- سلامت عاطفی و روانشناختی کاربران: 62%
- رفتار با نیروهای آزادکار: 62%
- خودآزاری: 53%
از مجموع شرکتکنندگان در این نظرسنجی، فقط 23 و 33 درصد معتقد بودند که به ترتیب سوگیری الگوریتمی و استفاده اخلاقی از هوش مصنوعی باید در اولویت قانونگذاری قرار بگیرند. شاید این امر، مسئله مهمی بهنظر نرسد، اما هوش مصنوعی (یا بهعبارت دقیقتر، یادگیری ماشین) راه خود را به اولویتهای بالاتر مانند حریم خصوصی دادهها و اطلاعات نادرست پیدا میکند و میتواند به مشکلات این حوزهها و بهخصوص «مغزهای» پشت پرده تهدیدات پیچیده امنیت سایبری دامن بزند.
همچنین به بیان نویسندگان گزارش، با اینکه هوش مصنوعی بهمنزله امری کاملاً مثبت برای اجتماع و اقتصاد تصور میشود، این نگرانی وجود دارد که نابرابریهای موجود را تثبیت کند، به کسبوکارهای بزرگ (78% تأثیر مثبت از سوی هوش مصنوعی) بیش از کسبوکارهای نوپا (42% تأثیر مثبت) یا گروههای اقلیت (23% تأثیر مثبت) سود برساند. این امر همان جنبه پنهان و مضر هوش مصنوعی و یادگیری ماشین است که نگارنده پیش از این، بر آن تأکیده کرده بود.
همانطور که در گزارش سال 2021 مؤسسه Anaconda با عنوان «State of Data Science» به تفصیل آمده است، بزرگترین نگرانی دانشمندان علوم داده در خصوص هوش مصنوعی، احتمال و حتی امکان سوگیری در الگوریتمها است. این نگرانی کاملاً منطقی است، زیرا نمیتوان نشت اطلاعاتی میلیاردها داده شخصی را نادیده گرفت؛ اما با همه این تفاصیل، بهسادگی از آن غفلت میشود و وقتی از چنین امر مهمی چشمپوشی میشود، سوگیری هوش مصنوعی یا یادگیری ماشین که فقط باعث میشوند، یک نرمافزار بهدرستی کار نکنند نیز، بهسادگی نادیده گرفته میشوند.
حال مسئله مهمتر این است که سیاستگذاران دقیقا برای ارتقای امنیت سایبری از طریق قانونگذاری چه کاری انجام میدهند؟ طبق بررسیهای نگارنده، هکرها برای نفوذ به پایگاه داده شرکتها، تمام قوانین را زیر پا میگذارند. آیا قانونی دیگر، این وضع را تغییر خواهد داد؟ حریم خصوصی داده چطور؟ آیا باز چیزی مانند قانون GDPR میسازیم که حتی حق انتخابی هم به ما نمیدهد و فقط مجبوریم آن را برای پیشبرد کارمان، قبول کنیم؟ بهنظر میرسد این مقررات فایدهای برای هیچ کسی ندارند. (بله، من میدانم که این امر تقصیر قانونگذاران اروپایی نیست؛ مشکل از وبسایتهایی است که تشنه داده هستند.)
حال که صحبت از GDPR شد، شاید جای تعجب نباشد که بر طبق این نظرسنجی، سیاستگذاران ایده الزامات عملیاتی پیشرفته در خصوص هوش مصنوعی، از قبیل اطلاعرسانی اجباری به کاربران در هنگام تعامل با سیستم هوش مصنوعی را میپسندند (82% موافق). همانطور که بهنظر میرسد این ایده شبیه به GDPR است. اگر قرار است از طریق پنجرههای بازشونده اعلام رضایت که بیشتر موجب سردرگمی میشوند، با مشکلات بالقوه استفاده اخلاقی از هوش مصنوعی و سوگیری مقابله کنیم، بهتر است از همین حالا به فکر یک ایده جایگزین باشیم.
هشتادوسه درصد از پاسخدهندگان به نظرسنجی، هوش مصنوعی را «تغییردهنده جهان» میدانند، اما بهنظر نمیرسد کسی دقیقاً بداند چگونه میتوان امنیت آن را تضمین کرد. همانطور که در نتیجهگیری گزارش آمده است: «چشمانداز قانونگذاری برای هوش مصنوعی بهتدریج و با ترکیبی از قوانین الزامآور اختصاصی و غیراختصاصی هوش مصنوعی، کدهای عملی غیرالزامآور و مجموعههایی از دستورالعملهای نظارتی، پدیدار میشود. با وجود چندین مجموعه قوانین مشابه یا دارای همپوشانی که بهوسیله نهادهای مختلف ایجاد میشوند، هرچه که تکههای این پازل بیشتر شوند، خطر پراکندگی جغرافیایی قوانین و ابرتورم نظارتی غیرقابل کنترل هم به وجود میآیند.»
جدیدترین اخبار هوش مصنوعی ایران و جهان را با هوشیو دنبال کنید