Filter by دسته‌ها
chatGTP
ابزارهای هوش مصنوعی
اخبار
گزارش
تیتر یک
چندرسانه ای
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
دانش روز
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
دیتاست
رویدادها
جیتکس
کاربردهای هوش مصنوعی
کتابخانه
اشخاص
شرکت‌های هوش مصنوعی
محصولات و مدل‌های هوش مصنوعی
مفاهیم
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
مقاله
 هوش مصنوعی زیر ذره‌بین قانون

هوش مصنوعی زیر ذره‌بین قانون

زمان مطالعه: 6 دقیقه

در حالی که انقلاب هوش مصنوعی همچنان ادامه دارد، تنظیم قوانین مرتبط با هوش مصنوعی به موضوعی حیاتی برای دولت‌ها جهان تبدیل شده است. اگرچه اخبار، هوش مصنوعی را به عنوان محیطی بی‌قانون و بی‌نظم نشان می‌دهند، اما چندین قانون وجود دارد که مستقیماً بر استفاده و توسعه هوش مصنوعی تأثیر می‌گذارد و می‌تواند به شرکت‌ها کمک کند تا به شیوه‌ای صحیح از این فناوری بهره‌برداری کنند. این راهنما به بررسی قوانین کلیدی هوش مصنوعی در ایالات متحده، اتحادیۀ اروپا و چین می‌پردازد و نه تنها قوانین فعلی، بلکه قوانین آینده را نیز تحلیل می‌کند.

تنظیم قوانین هوش مصنوعی در ایالات متحده

ایالات متحده با رویکردی مبتنی بر بازار و سابقه‌ای از دشواری‌ها در ایجاد توافق دو حزبی در سطح فدرال، پیشرفت‌هایی در زمینۀ تنظیم‌گری هوش مصنوعی در سطح بخش و ایالت داشته است. با وجود برگزاری چندین جلسه دربارۀ هوش مصنوعی و برنامه‌ریزی برای جلسات بیشتری در آینده، هنوز هیچ قانونی در سطح فدرال برای هوش مصنوعی در آمریکا معرفی نشده است. بااین‌حال، چندین قانون فعلی وجود دارد که می‌تواند به هدایت برنامه‌های مدیریتی هوش مصنوعی کمک کند؛ زیرا این قوانین به طور مستقیم بر چگونگی استفاده و بازاریابی سیستم‌ها و ابزارهای هوش مصنوعی تأثیر می‌گذارند.

هوش مصنوعی و اشتغال

قوانین ایالت‌های ایلینوی و نیویورک شامل «قانون مصاحبۀ ویدئویی هوش مصنوعی ایلینوی» و «قانون ابزار تصمیم‌گیری خودکار استخدام نیویورک» که معمولاً به عنوان قانون تعصب هوش مصنوعی نیویورک شناخته می‌شود، در حال حاضر بر چگونگی استفاده از هوش مصنوعی در حوزۀ اشتغال تأثیرگذارند.

قانون مصاحبۀ ویدئویی هوش مصنوعی ایلینوی

قانون مصاحبۀ ویدئویی هوش مصنوعی ایلینوی (AIVIA) که در سال ۲۰۱۹ تصویب و در سال ۲۰۲۰ به اجرا درآمد، یک قانون پیش‌گام است که به طور مستقیم به استفاده از هوش مصنوعی در فرآیند استخدام می‌پردازد. این قانون از کارفرمایان می‌خواهد که به متقاضیان اطلاع دهند که قصد دارند از سیستم‌های هوش مصنوعی برای ارزیابی مصاحبه‌های ویدئویی استفاده کنند. در واقع، این قانون به دنبال آگاهی بخشی به متقاضیان از حقوق خود است و به آن‌ها این امکان را می‌دهد که پیش از مصاحبه، استفاده از هوش مصنوعی را تأیید یا رد کنند. علاوه بر این، این قانون پروتکل‌هایی برای مدیریت داده‌های مصاحبه ویدئویی تعیین می‌کند. یکی از این پروتکل‌ها این است که داده‌ها در صورت درخواست باید ظرف ۳۰ روز حذف شوند. این تلاش اولیه برای شکل‌دهی به استفاده اخلاقی از هوش مصنوعی در اشتغال، احتمالاً الگوی مناسبی برای قوانین آینده در زمینۀ هوش مصنوعی و استخدام خواهد بود.

قانون تعصب هوش مصنوعی نیویورک

قانون تعصب هوش مصنوعی نیویورک از ۵ ژوئیۀ ۲۰۲۳ به مرحلۀ اجرا درآمد. این قانون از شرکت‌ها می‌خواهد که به طور منظم الگوریتم‌های استخدامی خود را برای شناسایی تعصب‌ها و نگرش‌های منفی بررسی کنند. این بررسی‌ها باید به دنبال تعصباتی باشند که می‌توانند علیه گروه‌های حمایت‌شده چه عمدی و چه غیرعمدی، تبعیض ایجاد کنند. این قانون همچنین از شرکت‌ها می‌خواهد که نتایج این بررسی‌ها را منتشر کنند تا شفافیت بیشتری دربارۀ چگونگی استفاده از ابزارهای هوش مصنوعی در فرآیند استخدام ایجاد شود. قانون تعصب هوش مصنوعی نیویورک با تشویق به شفافیت و پاسخگویی، تداوم تعصبات سیستماتیک و نابرابری در فرآیندهای استخدام (از طریق استفاده از هوش مصنوعی) را کاهش می‌دهد.

قوانین حریم خصوصی ایالت‌ها

در حالی که الزامات و قوانین از ایالتی به ایالت دیگر متفاوت است، بیشتر قوانین حریم خصوصی در ایالات متحده که هم‌اکنون اجرا می‌شوند، شامل شرایطی دربارۀ استفاده از تصمیم‌گیری خودکار و پروفایلینگ هستند. بیشتر ایالت‌ها از شرکت‌ها می‌خواهند که در صورت استفاده از هوش مصنوعی برای فرآیندهای تصمیم‌گیری خودکار، این موضوع را افشا کنند و به مصرف‌کنندگان گزینه‌ای برای عدم پذیرش این نوع پردازش داده‌ها ارائه دهند.

برخی ایالت‌ها حتی فراتر از این رفته و از شرکت‌ها می‌خواهند که منطق تصمیم‌گیری سیستم‌های هوش مصنوعی خود را افشا کنند و ارزیابی‌هایی درباره چگونگی تأثیر این فرآیندها بر مصرف‌کنندگان انجام دهند. این شفافیت اضافی به مصرف‌کنندگان کمک می‌کند تا درک بهتری از چگونگی تصمیم‌گیری درباره آن‌ها پیدا کنند. همچنین، در صورت ناعادلانه یا تبعیض‌آمیز بودن تصمیمات، مصرف‌کنندگان می‌توانند آن‌ها را به چالش بکشند. این قوانین حریم خصوصی نشان‌دهنده گامی مهم به سوی پاسخگویی شرکت‌ها در استفاده از هوش مصنوعی هستند و می‌توانند به عنوان الگویی مناسب برای قوانین جامع فدرال در آینده عمل کنند. با این حال، با توجه به پیشرفت سریع هوش مصنوعی، نیاز به ارزیابی مداوم این قوانین وجود دارد تا اطمینان حاصل شود که به‌خوبی از مصرف‌کنندگان محافظت می‌کنند و با پیشرفت‌های فناوری هماهنگ می‌شوند.

اعلامیه حقوق هوش مصنوعی

اعلامیۀ حقوق هوش مصنوعی که در اکتبر ۲۰۲۲ معرفی شد، گامی مهم به سوی استفاده اخلاقی از هوش مصنوعی در ایالات متحده به شمار می‌آید. این سند که از سوی دولت بایدن حمایت می‌شود، مجموعه‌ای از تعهدات داوطلبانه را برای شرکت‌های فعال در توسعه، پیاده‌سازی و مدیریت فناوری‌های هوش مصنوعی مشخص می‌کند. هدف این اعلامیه، اطمینان از عدالت، فراگیر بودن و پاسخگویی در سیستم‌های هوش مصنوعی است. همچنین، این اعلامیه بر اصول شفافیت و حریم خصوصی تأکید می‌کند. حمایت از حقوق کاربران نیز یکی دیگر از اهداف این اعلامیه است تا افراد بدانند که چه زمانی با سیستم‌های هوش مصنوعی تعامل دارند و چگونه اطلاعات شخصی‌شان مورد استفاده قرار می‌گیرد.

هوش مصنوعی، مالکیت معنوی و حق نشر

با توجه به شکایت‌های متعدد نویسندگان، کمدین‌ها و شخصیت‌های مشهور، موضوع مالکیت معنوی و حق نشر به یکی از مباحث داغ در بحث‌های مربوط به هوش مصنوعی تبدیل شده است.

در آگوست ۲۰۲۳، یک قاضی آمریکایی اعلام کرد که آثار تولید شده توسط هوش مصنوعی نمی‌توانند حق نشر داشته باشند. این حکم در مورد پرونده‌ای صادر شد که «استیون ثالر» علیه دفتر حق نشر ایالات متحده مطرح کرده بود. در واقع، این دفتر چندین بار از صدور حق نشر برای تصاویری که توسط الگوریتم ثالر (Creativity Machine) ساخته شده بودند، خودداری کرده بود. این دفتر اعلام کرده است که تنها آثار تولید شده توسط انسان می‌توانند حق نشر داشته باشند؛ به این معنا که این آثار شامل نقاشی‌هایی می‌شوند که به طور خودکار یا تصادفی توسط یک ماشین تولید می‌شوند، بدون اینکه هیچ دخالت یا خلاقیتی از یک نویسنده انسانی وجود داشته باشد. از آنجایی که هیچ خلاقیت و دخالت انسانی در این نقاشی‌ها وجود ندارد، آن‌ها شامل حق نشر نخواهند شد. این دیدگاه باعث ایجاد بحث‌هایی در میان پژوهشگران حقوقی شده است. برخی از آن‌ها بر این باورند که با پیشرفت‌های هوش مصنوعی، باید در قوانین حق نشر تجدید نظر شود.

هوش مصنوعی و کمیسیون تجارت فدرال

کمیسیون تجارت فدرال (FTC) در سال‌های اخیر توجه بیشتری به هوش مصنوعی و محصولات مبتنی بر آن نشان داده است تا از مصرف‌کنندگان محافظت کرده و روش‌های تجاری منصفانه را تضمین کند. این نهاد با در نظر گرفتن احتمال سوءاستفاده از هوش مصنوعی، به‌صورت فعال به بررسی اخلاقیات، الگوریتم‌ها و شیوه‌های داده‌ای در این زمینه پرداخته است.

یک نمونه قابل‌توجه، تحقیقات در حال انجام درباره OpenAI، یکی از شرکت‌های پیشرو در زمینه تحقیق هوش مصنوعی است. علاقه FTC به OpenAI نشان می‌دهد که این نهاد می‌خواهد اطمینان حاصل کند سیستم‌های هوش مصنوعی به گونه‌ای توسعه یابند و مورداستفاده قرار گیرند که حقوق مصرف‌کنندگان را نقض نکنند و منجر به شیوه‌های ناعادلانه یا فریبنده نشوند. علاوه بر این، FTC با جدیت در حال مقابله با ادعاهای بی‌پایه درباره محصولات مبتنی بر هوش مصنوعی است. به عنوان مثال، شرکت‌هایی که ادعاهای نادرست یا گمراه‌کننده درباره قابلیت‌ها یا مزایای فناوری‌های هوش مصنوعی خود دارند، تحت تحقیق و اقدامات اجرایی FTC قرار می‌گیرند.

FTC همچنین دستورالعمل‌های خاصی برای شرکت‌هایی که از هوش مصنوعی استفاده می‌کنند، صادر کرده است. این دستورالعمل‌ها بر شفافیت، قابلیت توضیح، انصاف و رعایت شیوه‌های امنیت داده تأکید دارند.

با توجه به این موارد، مشخص است که نقش FTC با پیشرفت‌های هوش مصنوعی به طور مداوم در حال تغییر است و کسب‌وکارها باید با این تغییرات آشنا شوند. همچنین کسب‌وکارها ملزم‌اند تمامی دستورالعمل‌های FTC در زمینۀ هوش مصنوعی را رعایت کنند.

قانون هوش مصنوعی اتحادیۀ اروپا

اتحادیۀ اروپا در اوایل سال 2023 قانون هوش مصنوعی را تصویب کرد و به‌عنوان یک حاکمیت پیشرو در تصویب قوانین قوی برای فناوری‌های نوظهور به راه خود ادامه می‌دهد. این قانون رویکردی مبتنی بر ریسک دارد و چهار دسته ریسک برای سیستم‌های هوش مصنوعی تعیین می‌کند: ریسک غیرقابل قبول، ریسک بالا، ریسک محدود و ریسک حداقلی.

ریسک غیرقابل قبول

ریسک غیرقابل قبول به آن دسته از سیستم‌های هوش مصنوعی اشاره دارد که خطرات بسیار بالایی برای مصرف‌کنندگان دارند. این شامل سیستم‌هایی است که رفتار انسان‌ها را دست‌کاری می‌کنند، از گروه‌های آسیب‌پذیر سوءاستفاده می‌کنند یا از امتیازدهی اجتماعی برای کنترل مصرف‌کنندگان و تصمیم‌گیری‌های دولتی استفاده می‌کنند. سیستم‌های هوش مصنوعی که در این دسته قرار می‌گیرند، طبق قانون هوش مصنوعی اتحادیۀ اروپا ممنوع‌اند.

ریسک بالا

سیستم‌های هوش مصنوعی که تأثیر منفی بر ایمنی مصرف‌کنندگان یا حقوق بنیادی آن‌ها دارند، در قانون هوش مصنوعی اتحادیۀ اروپا به‌عنوان سیستم‌هایی با ریسک بالا تعریف می‌شوند. این دسته به‌تنهایی به دو زیر دسته تقسیم می‌شود:

زیر دستۀ اول: آن دسته از سیستم‌های هوش مصنوعی که در محصولاتی مانند هواپیماها، دستگاه‌های پزشکی، وسایل نقلیه و اسباب‌بازی‌ها استفاده می‌شوند. این محصولات تحت قوانین ایمنی محصولات اتحادیۀ اروپا قرار دارند.

زیر دستۀ دوم: سیستم‌های هوش مصنوعی که در زمینه‌های زیر به کار می‌روند:

  • شناسایی بیومتریک
  • کنترل مرزی، مهاجرت و پناهندگی
  • زیرساخت‌های حیاتی
  • خدمات عمومی و خصوصی اساسی
  • تفسیر قانونی
  • آموزش و پرورش
  • استخدام
  • اجرای قانون

سیستم‌های هوش مصنوعی در دستۀ ریسک بالا باید قبل از اینکه به بازار وارد شوند، الزامات سخت‌گیرانه‌ای را رعایت کنند. این الزامات شامل این موارد است:

  • استفاده از سیستم‌های مدیریت ریسک مناسب
  • استفاده از داده‌های با کیفیت بالا برای کاهش تعصب
  • ارائه مستندات دقیق درباره سیستم
  • نظارت انسانی مناسب
  • نشان‌دادن تعهد به امنیت و دقت سیستم

ریسک محدود

سیستم‌های هوش مصنوعی با ریسک محدود شامل چت‌بات‌ها و سیستم‌هایی هستند که محتوای بصری یا صوتی تولید و یا تغییر می‌دهند. این نوع سیستم‌ها باید الزامات خاصی را برای شفاف‌سازی رعایت کنند و به کاربران اطلاع دهند که در حال تعامل با یک سیستم هوش مصنوعی هستند.

ریسک حداقلی

سیستم‌های هوش مصنوعی با ریسک پایین، مانند فیلترهای هرزنامه (اسپم)، اکثریت سیستم‌هایی هستند که در حال حاضر مورد استفاده قرار می‌گیرند. این سیستم‌ها می‌توانند به‌سادگی کار کنند، زیرا خطر کمی برای حقوق شهروندان ایجاد می‌کنند. قانون هوش مصنوعی اتحادیۀ اروپا همچنین «هیئت هوش مصنوعی اروپا» را تشکیل داده است. این هیئت مسئول مشاوره و کمک به کمیسیون در مسائل مربوط به هوش مصنوعی است و باید اطمینان حاصل کند که این قانون به طور هماهنگ در تمام کشورهای اتحادیۀ اروپا اجرا می‌شود.

مقررات هوش مصنوعی در چین

چین در حوزۀ هوش مصنوعی بر ترویج نوآوری و درعین‌حال حفظ کنترل دولتی بر این فناوری تأکید دارد. این موضوع در اسناد مهم سیاستی، مانند «برنامه توسعۀ هوش مصنوعی نسل جدید»، مشخص شده است. در واقع، این برنامه نشان می‌دهد که چین قصد دارد تا سال 2030 به یک رهبر جهانی در حوزۀ هوش مصنوعی تبدیل شود.

چین در قوانین خود رویکردی متمرکز دارد و برای حل مسائل خاص هوش مصنوعی از قوانین جداگانه استفاده می‌کند. این روش با قانون هوش مصنوعی اتحادیۀ اروپا متفاوت است؛ زیرا اتحادیۀ اروپا استانداردها و الزامات مشخصی را برای انواع مختلف کاربردهای هوش مصنوعی تعیین کرده است.

الگوریتم‌های توصیه‌گری مبتنی بر هوش مصنوعی

مقررات مربوط به الگوریتم‌های توصیه‌گر هوش مصنوعی از ارائه‌دهندگان خدمات می‌خواهد که تبعیض را محدود کنند، به کاهش انتشار اطلاعات منفی کمک کنند و شرایط کاری استثمارکننده را برای کارگران برطرف نمایند. این قانون همچنین به مصرف‌کنندگان چینی حق می‌دهد که توصیه‌های الگوریتمی را خاموش کنند و در صورتی که الگوریتمی به طور چشمگیری بر منافعشان تأثیر بگذارد، توضیحاتی دریافت کنند.

سنتز عمیق (Deep Synthesis)

مقررات سنتز عمیق در چین به استفاده از الگوریتم‌ها برای تولید یا تغییر محتوای آنلاین به‌صورت مصنوعی مربوط می‌شود. این قانون تأکید دارد که محتوای تولید شده باید با قوانین اطلاعاتی سازگار باشد و به طور واضح نشان دهد که به‌صورت مصنوعی تولید شده است. همچنین، ارائه‌دهندگان این محتوا باید اقداماتی برای جلوگیری از سوءاستفاده انجام دهند. علاوه بر این، قوانین نامشخصی برای سانسور وجود دارد و ارائه‌دهندگان باید الگوریتم‌های خود را ثبت کنند.

شناسایی چهره (Facial Recognition)

با اینکه در چین سیستم‌های نظارتی و اجرایی قانون به طور گسترده از هوش مصنوعی استفاده می‌کنند؛ اما مقرراتی برای کنترل استفاده از این فناوری توسط سازمان‌های غیر دولتی تعیین شده است. این مقررات می‌گویند که ابزارهای شناسایی چهره فقط باید برای مقاصد خاص و زمانی که ابزارهای دیگر مؤثر نیستند، استفاده شوند. همچنین، استفاده از این ابزارها در مکان‌های عمومی باید برای تأمین امنیت عمومی باشد. در مجموع، رویکرد چین به مقررات هوش مصنوعی ترکیبی از ترویج نوآوری، کنترل دولتی و حفاظت از جامعه است که با شرایط سیاسی، اقتصادی و فرهنگی این کشور سازگار است.

با پیشرفت هوش مصنوعی، قوانین مربوط به آن نیز در حال تغییر هستند. ایالات متحده رویکردی غیرمتمرکز دارد که بر کاربردهای خاص هوش مصنوعی تمرکز می‌کند. در مقابل، اتحادیۀ اروپا رویکردی جامع و مبتنی بر ریسک را دنبال می‌کند. کشور چین نیز ترکیبی از قوانین ملی، استانی و محلی دارد و بر حفظ قدرت دولت و ارزش‌های فرهنگی تأکید می‌کند. این تغییرات در قوانین قطعاً بر توسعه و استفاده از هوش مصنوعی در سطح جهانی تأثیر خواهد گذاشت.

میانگین امتیاز / 5. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
[wpforms id="48325"]