هوش مصنوعی زیر ذرهبین قانون
در حالی که انقلاب هوش مصنوعی همچنان ادامه دارد، تنظیم قوانین مرتبط با هوش مصنوعی به موضوعی حیاتی برای دولتها جهان تبدیل شده است. اگرچه اخبار، هوش مصنوعی را به عنوان محیطی بیقانون و بینظم نشان میدهند، اما چندین قانون وجود دارد که مستقیماً بر استفاده و توسعه هوش مصنوعی تأثیر میگذارد و میتواند به شرکتها کمک کند تا به شیوهای صحیح از این فناوری بهرهبرداری کنند. این راهنما به بررسی قوانین کلیدی هوش مصنوعی در ایالات متحده، اتحادیۀ اروپا و چین میپردازد و نه تنها قوانین فعلی، بلکه قوانین آینده را نیز تحلیل میکند.
تنظیم قوانین هوش مصنوعی در ایالات متحده
ایالات متحده با رویکردی مبتنی بر بازار و سابقهای از دشواریها در ایجاد توافق دو حزبی در سطح فدرال، پیشرفتهایی در زمینۀ تنظیمگری هوش مصنوعی در سطح بخش و ایالت داشته است. با وجود برگزاری چندین جلسه دربارۀ هوش مصنوعی و برنامهریزی برای جلسات بیشتری در آینده، هنوز هیچ قانونی در سطح فدرال برای هوش مصنوعی در آمریکا معرفی نشده است. بااینحال، چندین قانون فعلی وجود دارد که میتواند به هدایت برنامههای مدیریتی هوش مصنوعی کمک کند؛ زیرا این قوانین به طور مستقیم بر چگونگی استفاده و بازاریابی سیستمها و ابزارهای هوش مصنوعی تأثیر میگذارند.
هوش مصنوعی و اشتغال
قوانین ایالتهای ایلینوی و نیویورک شامل «قانون مصاحبۀ ویدئویی هوش مصنوعی ایلینوی» و «قانون ابزار تصمیمگیری خودکار استخدام نیویورک» که معمولاً به عنوان قانون تعصب هوش مصنوعی نیویورک شناخته میشود، در حال حاضر بر چگونگی استفاده از هوش مصنوعی در حوزۀ اشتغال تأثیرگذارند.
قانون مصاحبۀ ویدئویی هوش مصنوعی ایلینوی
قانون مصاحبۀ ویدئویی هوش مصنوعی ایلینوی (AIVIA) که در سال ۲۰۱۹ تصویب و در سال ۲۰۲۰ به اجرا درآمد، یک قانون پیشگام است که به طور مستقیم به استفاده از هوش مصنوعی در فرآیند استخدام میپردازد. این قانون از کارفرمایان میخواهد که به متقاضیان اطلاع دهند که قصد دارند از سیستمهای هوش مصنوعی برای ارزیابی مصاحبههای ویدئویی استفاده کنند. در واقع، این قانون به دنبال آگاهی بخشی به متقاضیان از حقوق خود است و به آنها این امکان را میدهد که پیش از مصاحبه، استفاده از هوش مصنوعی را تأیید یا رد کنند. علاوه بر این، این قانون پروتکلهایی برای مدیریت دادههای مصاحبه ویدئویی تعیین میکند. یکی از این پروتکلها این است که دادهها در صورت درخواست باید ظرف ۳۰ روز حذف شوند. این تلاش اولیه برای شکلدهی به استفاده اخلاقی از هوش مصنوعی در اشتغال، احتمالاً الگوی مناسبی برای قوانین آینده در زمینۀ هوش مصنوعی و استخدام خواهد بود.
قانون تعصب هوش مصنوعی نیویورک
قانون تعصب هوش مصنوعی نیویورک از ۵ ژوئیۀ ۲۰۲۳ به مرحلۀ اجرا درآمد. این قانون از شرکتها میخواهد که به طور منظم الگوریتمهای استخدامی خود را برای شناسایی تعصبها و نگرشهای منفی بررسی کنند. این بررسیها باید به دنبال تعصباتی باشند که میتوانند علیه گروههای حمایتشده چه عمدی و چه غیرعمدی، تبعیض ایجاد کنند. این قانون همچنین از شرکتها میخواهد که نتایج این بررسیها را منتشر کنند تا شفافیت بیشتری دربارۀ چگونگی استفاده از ابزارهای هوش مصنوعی در فرآیند استخدام ایجاد شود. قانون تعصب هوش مصنوعی نیویورک با تشویق به شفافیت و پاسخگویی، تداوم تعصبات سیستماتیک و نابرابری در فرآیندهای استخدام (از طریق استفاده از هوش مصنوعی) را کاهش میدهد.
قوانین حریم خصوصی ایالتها
در حالی که الزامات و قوانین از ایالتی به ایالت دیگر متفاوت است، بیشتر قوانین حریم خصوصی در ایالات متحده که هماکنون اجرا میشوند، شامل شرایطی دربارۀ استفاده از تصمیمگیری خودکار و پروفایلینگ هستند. بیشتر ایالتها از شرکتها میخواهند که در صورت استفاده از هوش مصنوعی برای فرآیندهای تصمیمگیری خودکار، این موضوع را افشا کنند و به مصرفکنندگان گزینهای برای عدم پذیرش این نوع پردازش دادهها ارائه دهند.
برخی ایالتها حتی فراتر از این رفته و از شرکتها میخواهند که منطق تصمیمگیری سیستمهای هوش مصنوعی خود را افشا کنند و ارزیابیهایی درباره چگونگی تأثیر این فرآیندها بر مصرفکنندگان انجام دهند. این شفافیت اضافی به مصرفکنندگان کمک میکند تا درک بهتری از چگونگی تصمیمگیری درباره آنها پیدا کنند. همچنین، در صورت ناعادلانه یا تبعیضآمیز بودن تصمیمات، مصرفکنندگان میتوانند آنها را به چالش بکشند. این قوانین حریم خصوصی نشاندهنده گامی مهم به سوی پاسخگویی شرکتها در استفاده از هوش مصنوعی هستند و میتوانند به عنوان الگویی مناسب برای قوانین جامع فدرال در آینده عمل کنند. با این حال، با توجه به پیشرفت سریع هوش مصنوعی، نیاز به ارزیابی مداوم این قوانین وجود دارد تا اطمینان حاصل شود که بهخوبی از مصرفکنندگان محافظت میکنند و با پیشرفتهای فناوری هماهنگ میشوند.
اعلامیه حقوق هوش مصنوعی
اعلامیۀ حقوق هوش مصنوعی که در اکتبر ۲۰۲۲ معرفی شد، گامی مهم به سوی استفاده اخلاقی از هوش مصنوعی در ایالات متحده به شمار میآید. این سند که از سوی دولت بایدن حمایت میشود، مجموعهای از تعهدات داوطلبانه را برای شرکتهای فعال در توسعه، پیادهسازی و مدیریت فناوریهای هوش مصنوعی مشخص میکند. هدف این اعلامیه، اطمینان از عدالت، فراگیر بودن و پاسخگویی در سیستمهای هوش مصنوعی است. همچنین، این اعلامیه بر اصول شفافیت و حریم خصوصی تأکید میکند. حمایت از حقوق کاربران نیز یکی دیگر از اهداف این اعلامیه است تا افراد بدانند که چه زمانی با سیستمهای هوش مصنوعی تعامل دارند و چگونه اطلاعات شخصیشان مورد استفاده قرار میگیرد.
هوش مصنوعی، مالکیت معنوی و حق نشر
با توجه به شکایتهای متعدد نویسندگان، کمدینها و شخصیتهای مشهور، موضوع مالکیت معنوی و حق نشر به یکی از مباحث داغ در بحثهای مربوط به هوش مصنوعی تبدیل شده است.
در آگوست ۲۰۲۳، یک قاضی آمریکایی اعلام کرد که آثار تولید شده توسط هوش مصنوعی نمیتوانند حق نشر داشته باشند. این حکم در مورد پروندهای صادر شد که «استیون ثالر» علیه دفتر حق نشر ایالات متحده مطرح کرده بود. در واقع، این دفتر چندین بار از صدور حق نشر برای تصاویری که توسط الگوریتم ثالر (Creativity Machine) ساخته شده بودند، خودداری کرده بود. این دفتر اعلام کرده است که تنها آثار تولید شده توسط انسان میتوانند حق نشر داشته باشند؛ به این معنا که این آثار شامل نقاشیهایی میشوند که به طور خودکار یا تصادفی توسط یک ماشین تولید میشوند، بدون اینکه هیچ دخالت یا خلاقیتی از یک نویسنده انسانی وجود داشته باشد. از آنجایی که هیچ خلاقیت و دخالت انسانی در این نقاشیها وجود ندارد، آنها شامل حق نشر نخواهند شد. این دیدگاه باعث ایجاد بحثهایی در میان پژوهشگران حقوقی شده است. برخی از آنها بر این باورند که با پیشرفتهای هوش مصنوعی، باید در قوانین حق نشر تجدید نظر شود.
هوش مصنوعی و کمیسیون تجارت فدرال
کمیسیون تجارت فدرال (FTC) در سالهای اخیر توجه بیشتری به هوش مصنوعی و محصولات مبتنی بر آن نشان داده است تا از مصرفکنندگان محافظت کرده و روشهای تجاری منصفانه را تضمین کند. این نهاد با در نظر گرفتن احتمال سوءاستفاده از هوش مصنوعی، بهصورت فعال به بررسی اخلاقیات، الگوریتمها و شیوههای دادهای در این زمینه پرداخته است.
یک نمونه قابلتوجه، تحقیقات در حال انجام درباره OpenAI، یکی از شرکتهای پیشرو در زمینه تحقیق هوش مصنوعی است. علاقه FTC به OpenAI نشان میدهد که این نهاد میخواهد اطمینان حاصل کند سیستمهای هوش مصنوعی به گونهای توسعه یابند و مورداستفاده قرار گیرند که حقوق مصرفکنندگان را نقض نکنند و منجر به شیوههای ناعادلانه یا فریبنده نشوند. علاوه بر این، FTC با جدیت در حال مقابله با ادعاهای بیپایه درباره محصولات مبتنی بر هوش مصنوعی است. به عنوان مثال، شرکتهایی که ادعاهای نادرست یا گمراهکننده درباره قابلیتها یا مزایای فناوریهای هوش مصنوعی خود دارند، تحت تحقیق و اقدامات اجرایی FTC قرار میگیرند.
FTC همچنین دستورالعملهای خاصی برای شرکتهایی که از هوش مصنوعی استفاده میکنند، صادر کرده است. این دستورالعملها بر شفافیت، قابلیت توضیح، انصاف و رعایت شیوههای امنیت داده تأکید دارند.
با توجه به این موارد، مشخص است که نقش FTC با پیشرفتهای هوش مصنوعی به طور مداوم در حال تغییر است و کسبوکارها باید با این تغییرات آشنا شوند. همچنین کسبوکارها ملزماند تمامی دستورالعملهای FTC در زمینۀ هوش مصنوعی را رعایت کنند.
قانون هوش مصنوعی اتحادیۀ اروپا
اتحادیۀ اروپا در اوایل سال 2023 قانون هوش مصنوعی را تصویب کرد و بهعنوان یک حاکمیت پیشرو در تصویب قوانین قوی برای فناوریهای نوظهور به راه خود ادامه میدهد. این قانون رویکردی مبتنی بر ریسک دارد و چهار دسته ریسک برای سیستمهای هوش مصنوعی تعیین میکند: ریسک غیرقابل قبول، ریسک بالا، ریسک محدود و ریسک حداقلی.
ریسک غیرقابل قبول
ریسک غیرقابل قبول به آن دسته از سیستمهای هوش مصنوعی اشاره دارد که خطرات بسیار بالایی برای مصرفکنندگان دارند. این شامل سیستمهایی است که رفتار انسانها را دستکاری میکنند، از گروههای آسیبپذیر سوءاستفاده میکنند یا از امتیازدهی اجتماعی برای کنترل مصرفکنندگان و تصمیمگیریهای دولتی استفاده میکنند. سیستمهای هوش مصنوعی که در این دسته قرار میگیرند، طبق قانون هوش مصنوعی اتحادیۀ اروپا ممنوعاند.
ریسک بالا
سیستمهای هوش مصنوعی که تأثیر منفی بر ایمنی مصرفکنندگان یا حقوق بنیادی آنها دارند، در قانون هوش مصنوعی اتحادیۀ اروپا بهعنوان سیستمهایی با ریسک بالا تعریف میشوند. این دسته بهتنهایی به دو زیر دسته تقسیم میشود:
زیر دستۀ اول: آن دسته از سیستمهای هوش مصنوعی که در محصولاتی مانند هواپیماها، دستگاههای پزشکی، وسایل نقلیه و اسباببازیها استفاده میشوند. این محصولات تحت قوانین ایمنی محصولات اتحادیۀ اروپا قرار دارند.
زیر دستۀ دوم: سیستمهای هوش مصنوعی که در زمینههای زیر به کار میروند:
- شناسایی بیومتریک
- کنترل مرزی، مهاجرت و پناهندگی
- زیرساختهای حیاتی
- خدمات عمومی و خصوصی اساسی
- تفسیر قانونی
- آموزش و پرورش
- استخدام
- اجرای قانون
سیستمهای هوش مصنوعی در دستۀ ریسک بالا باید قبل از اینکه به بازار وارد شوند، الزامات سختگیرانهای را رعایت کنند. این الزامات شامل این موارد است:
- استفاده از سیستمهای مدیریت ریسک مناسب
- استفاده از دادههای با کیفیت بالا برای کاهش تعصب
- ارائه مستندات دقیق درباره سیستم
- نظارت انسانی مناسب
- نشاندادن تعهد به امنیت و دقت سیستم
ریسک محدود
سیستمهای هوش مصنوعی با ریسک محدود شامل چتباتها و سیستمهایی هستند که محتوای بصری یا صوتی تولید و یا تغییر میدهند. این نوع سیستمها باید الزامات خاصی را برای شفافسازی رعایت کنند و به کاربران اطلاع دهند که در حال تعامل با یک سیستم هوش مصنوعی هستند.
ریسک حداقلی
سیستمهای هوش مصنوعی با ریسک پایین، مانند فیلترهای هرزنامه (اسپم)، اکثریت سیستمهایی هستند که در حال حاضر مورد استفاده قرار میگیرند. این سیستمها میتوانند بهسادگی کار کنند، زیرا خطر کمی برای حقوق شهروندان ایجاد میکنند. قانون هوش مصنوعی اتحادیۀ اروپا همچنین «هیئت هوش مصنوعی اروپا» را تشکیل داده است. این هیئت مسئول مشاوره و کمک به کمیسیون در مسائل مربوط به هوش مصنوعی است و باید اطمینان حاصل کند که این قانون به طور هماهنگ در تمام کشورهای اتحادیۀ اروپا اجرا میشود.
مقررات هوش مصنوعی در چین
چین در حوزۀ هوش مصنوعی بر ترویج نوآوری و درعینحال حفظ کنترل دولتی بر این فناوری تأکید دارد. این موضوع در اسناد مهم سیاستی، مانند «برنامه توسعۀ هوش مصنوعی نسل جدید»، مشخص شده است. در واقع، این برنامه نشان میدهد که چین قصد دارد تا سال 2030 به یک رهبر جهانی در حوزۀ هوش مصنوعی تبدیل شود.
چین در قوانین خود رویکردی متمرکز دارد و برای حل مسائل خاص هوش مصنوعی از قوانین جداگانه استفاده میکند. این روش با قانون هوش مصنوعی اتحادیۀ اروپا متفاوت است؛ زیرا اتحادیۀ اروپا استانداردها و الزامات مشخصی را برای انواع مختلف کاربردهای هوش مصنوعی تعیین کرده است.
الگوریتمهای توصیهگری مبتنی بر هوش مصنوعی
مقررات مربوط به الگوریتمهای توصیهگر هوش مصنوعی از ارائهدهندگان خدمات میخواهد که تبعیض را محدود کنند، به کاهش انتشار اطلاعات منفی کمک کنند و شرایط کاری استثمارکننده را برای کارگران برطرف نمایند. این قانون همچنین به مصرفکنندگان چینی حق میدهد که توصیههای الگوریتمی را خاموش کنند و در صورتی که الگوریتمی به طور چشمگیری بر منافعشان تأثیر بگذارد، توضیحاتی دریافت کنند.
سنتز عمیق (Deep Synthesis)
مقررات سنتز عمیق در چین به استفاده از الگوریتمها برای تولید یا تغییر محتوای آنلاین بهصورت مصنوعی مربوط میشود. این قانون تأکید دارد که محتوای تولید شده باید با قوانین اطلاعاتی سازگار باشد و به طور واضح نشان دهد که بهصورت مصنوعی تولید شده است. همچنین، ارائهدهندگان این محتوا باید اقداماتی برای جلوگیری از سوءاستفاده انجام دهند. علاوه بر این، قوانین نامشخصی برای سانسور وجود دارد و ارائهدهندگان باید الگوریتمهای خود را ثبت کنند.
شناسایی چهره (Facial Recognition)
با اینکه در چین سیستمهای نظارتی و اجرایی قانون به طور گسترده از هوش مصنوعی استفاده میکنند؛ اما مقرراتی برای کنترل استفاده از این فناوری توسط سازمانهای غیر دولتی تعیین شده است. این مقررات میگویند که ابزارهای شناسایی چهره فقط باید برای مقاصد خاص و زمانی که ابزارهای دیگر مؤثر نیستند، استفاده شوند. همچنین، استفاده از این ابزارها در مکانهای عمومی باید برای تأمین امنیت عمومی باشد. در مجموع، رویکرد چین به مقررات هوش مصنوعی ترکیبی از ترویج نوآوری، کنترل دولتی و حفاظت از جامعه است که با شرایط سیاسی، اقتصادی و فرهنگی این کشور سازگار است.
با پیشرفت هوش مصنوعی، قوانین مربوط به آن نیز در حال تغییر هستند. ایالات متحده رویکردی غیرمتمرکز دارد که بر کاربردهای خاص هوش مصنوعی تمرکز میکند. در مقابل، اتحادیۀ اروپا رویکردی جامع و مبتنی بر ریسک را دنبال میکند. کشور چین نیز ترکیبی از قوانین ملی، استانی و محلی دارد و بر حفظ قدرت دولت و ارزشهای فرهنگی تأکید میکند. این تغییرات در قوانین قطعاً بر توسعه و استفاده از هوش مصنوعی در سطح جهانی تأثیر خواهد گذاشت.