40 گام به سوی آینده‌ای هوشمند - مجموعه وبینارهای رایگان در حوزه هوش مصنوعی
Filter by دسته‌ها
chatGTP
آموزش هوش مصنوعی و انواع آن
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
پایتون و ابزارهای یادگیری عمیق
کتابخانه‌ های یادگیری عمیق
یادگیری با نظارت
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
دیتاست
اخبار
تیتر یک
رسانه‌ها
آموزش پردازش زبان طبیعی
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
رویدادها
کاربردهای هوش مصنوعی
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
 اختلاف‌نظر سیاست‌گذاران درباره چگونگی تنظیم مقررات هوش مصنوعی

اختلاف‌نظر سیاست‌گذاران درباره چگونگی تنظیم مقررات هوش مصنوعی

از نظر سیاست‌گذاران هوش مصنوعی قابلیت تغییر جهان را دارد، اما مشخص نیست که چگونه می‌توان از پیامدهای مثبت آن اطمینان حاصل کرد.

طبق نتایج نظرسنجی جدید Clifford Chance از هزار نفر از سیاست‌گذاران که همگی از کارشناسان فناوری از ایالات متحده، بریتانیا، آلمان و فرانسه هستند، این افراد نگران اثرات هوش مصنوعی هستند؛ اما نگرانیِ تنها کافی نیست. با اینکه سیاست‌گذاران به‌درستی نگران امنیت سایبری هستند، اما ممکن است آنقدر بر روی تهدیدهای کوتاه‌مدت و آشکار هوش مصنوعی تمرکز کنند که از تهدیدات بلندمدت و پنهان آن، غافل شوند و حتی درباره چگونگی مقابله با مشکلات نوظهور هوش مصنوعی، توافق نظر نداشته باشند.

مشکلات هوش مصنوعی

شرکت  YouGovدر نظرسنجی‌ای که به نمایندگی از Clifford Chance انجام داد، نظر سیاست‌گذاران را در خصوص مسائلی جویا شد که باید در اولویت قانون‌گذاری قرار بگیرند (به‌نظر شما، موارد زیر تا چه حد در تنظیم قوانین و مقررات جدید اولویت دارند؟) استفاده اخلاقی از هوش مصنوعی و سوگیری الگوریتمی رتبه بسیار پایینی را نسبت به سایر مسائل کسب کردند:

  • امنیت سایبری: ۹۴%
  • حریم خصوصی، محافظت و اشتراک داده: ۹۲%
  • سوءاستفاده و استثمار جنسی کودکان: ۹۰%
  • اطلاعات نادرست/ دژاطلاعات: ۸۶%
  • مشارکت اقتصادی: ۸۱%
  • استفاده اخلاقی از هوش مصنوعی: ۷۸%
  • ایجاد فضای امن برای کودکان: ۷۸%
  • آزادی بیان در فضای مجازی: ۷۶%
  • رقابت عادلانه شرکت‌های فناوری: ۷۵%
  • سوگیری و شفافیت الگوریتمی: ۷۱%
  • تعدیل محتوا: ۷۰%
  • رسیدگی به اقلیت‌ها و محرومین: ۷۰%
  • سلامت عاطفی: ۶۵%
  • سلامت عاطفی و روان‌شناختی کاربران: ۶۲%
  • رفتار با نیروهای آزادکار: ۶۲%
  • خودآزاری: ۵۳%

از مجموع شرکت‌کنندگان در این نظرسنجی، فقط ۲۳ و ۳۳ درصد معتقد بودند که به ترتیب سوگیری الگوریتمی و استفاده اخلاقی از هوش مصنوعی باید در اولویت قانون‌گذاری قرار بگیرند. شاید این امر، مسئله مهمی به‌نظر نرسد، اما هوش مصنوعی (یا به‌عبارت دقیق‌تر، یادگیری ماشین) راه خود را به اولویت‌های بالاتر مانند حریم خصوصی داده‌ها و اطلاعات نادرست پیدا می‌کند و می‌تواند به مشکلات این حوزه‌ها و به‌خصوص «مغزهای» پشت پرده تهدیدات پیچیده امنیت سایبری دامن بزند.

همچنین به بیان نویسندگان گزارش، با اینکه هوش مصنوعی به‌منزله امری کاملاً مثبت برای اجتماع و اقتصاد تصور می‌شود، این نگرانی وجود دارد که نابرابری‌های موجود را تثبیت کند، به کسب‌وکارهای بزرگ (۷۸% تأثیر مثبت از سوی هوش مصنوعی) بیش از کسب‌وکارهای نو‌پا (۴۲% تأثیر مثبت) یا گروه‌های اقلیت (۲۳% تأثیر مثبت) سود برساند. این امر همان جنبه پنهان و مضر هوش مصنوعی و یادگیری ماشین است که نگارنده پیش از این، بر آن تأکیده کرده بود.

سیاست‌گذاران

همان‌طور که در گزارش سال ۲۰۲۱ مؤسسه Anaconda با عنوان «State of Data Science» به تفصیل آمده است، بزرگ‌ترین نگرانی دانشمندان علوم داده در خصوص هوش مصنوعی، احتمال و حتی امکان سوگیری در الگوریتم‌ها است. این نگرانی کاملاً منطقی است، زیرا نمی‌توان نشت اطلاعاتی میلیاردها داده شخصی را نادیده گرفت؛ اما با همه این‌ تفاصیل، به‌سادگی از آن غفلت می‌شود و وقتی از چنین امر مهمی چشم‌پوشی می‌شود، سوگیری هوش مصنوعی یا یادگیری ماشین که فقط باعث می‌شوند، یک نرم‌افزار به‌درستی کار نکنند نیز، به‌سادگی نادیده گرفته می‌شوند.

حال مسئله مهم‌تر این است که سیاستگذاران دقیقا برای ارتقای امنیت سایبری از طریق قانونگذاری چه کاری انجام می‌دهند؟ طبق بررسی‌های نگارنده، هکرها برای نفوذ به پایگاه داده شرکت‌ها، تمام قوانین را زیر پا می‌گذارند. آیا قانونی دیگر، این وضع را تغییر خواهد داد؟ حریم خصوصی داده چطور؟ آیا باز چیزی مانند قانون GDPR می‌سازیم که حتی حق انتخابی هم به ما نمی‌دهد و فقط مجبوریم آن را برای پیش‌برد کارمان، قبول کنیم؟ به‌نظر می‌رسد این مقررات فایده‌ای برای هیچ کسی ندارند. (بله، من می‌دانم که این امر تقصیر قانون‌گذاران اروپایی نیست؛ مشکل از وب‌سایت‌هایی است که تشنه داده هستند.)

حال که صحبت از GDPR شد، شاید جای تعجب نباشد که بر طبق این نظرسنجی، سیاستگذاران ایده الزامات عملیاتی پیشرفته در خصوص هوش مصنوعی، از قبیل اطلاع‌رسانی اجباری به کاربران در هنگام تعامل با سیستم هوش مصنوعی را می‌پسندند (۸۲% موافق). همان‌طور که به‌نظر می‌رسد این ایده شبیه به GDPR است. اگر قرار است از طریق پنجره‌های باز‌شونده اعلام رضایت که بیشتر موجب سردرگمی می‌شوند، با مشکلات بالقوه استفاده اخلاقی از هوش مصنوعی و سوگیری مقابله کنیم، بهتر است از همین حالا به فکر یک ایده جایگزین باشیم.

هشتادوسه درصد از پاسخ‌دهندگان به نظرسنجی، هوش مصنوعی را «تغییردهنده جهان» می‌دانند، اما به‌نظر نمی‌رسد کسی دقیقاً بداند چگونه می‌توان امنیت آن را تضمین کرد. همان‌طور که در نتیجه‌گیری گزارش آمده است: «چشم‌انداز قانونگذاری برای هوش مصنوعی به‌تدریج و با ترکیبی از قوانین الزام‌آور اختصاصی و غیراختصاصی هوش مصنوعی، کدهای عملی غیرالزام‌آور و مجموعه‌هایی از دستورالعمل‌های نظارتی، پدیدار می‌شود. با وجود چندین مجموعه قوانین مشابه یا دارای همپوشانی که به‌وسیله نهادهای مختلف ایجاد می‌شوند، هرچه که تکه‌های این پازل بیشتر شوند، خطر پراکندگی جغرافیایی قوانین و ابرتورم نظارتی غیرقابل کنترل هم به وجود می‌آیند.»

جدیدترین اخبار هوش مصنوعی ایران و جهان را با هوشیو دنبال کنید

میانگین امتیاز / ۵. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
[wpforms id="48325"]