قانون کپیرایت در عصر هوش مصنوعی
یک نظرسنجی تازه حاکی از آن است که رهبران کسب و کار در ایالات متحده به شدت به دنبال ایجاد مقررات و حکمرانی مؤثر برای هوش مصنوعی هستند. نگرانیهای روزافزون در مورد حریم خصوصی دادهها، تهدیدات امنیتی و استفاده اخلاقی از فناوریهای هوش مصنوعی، این درخواست را تقویت کرده است.
این تحقیق که به سفارش شرکت Collibra توسط Harris Poll انجام شده، به بررسی جامع نحوه پیشرفت شرکتها در زمینه پذیرش و تنظیم مقررات هوش مصنوعی در یک چشمانداز پیچیده میپردازد.
نظرسنجیای که بر روی ۳۰۱ بزرگسال آمریکایی در سطوح مدیریتی و بالاتر انجام شد، نشان داد که ۸۴ درصد از تصمیمگیرندگان در حوزه داده (Data)، حریم خصوصی و هوش مصنوعی بهطور قاطع از بهروزرسانی قوانین کپیرایت ایالات متحده به منظور حفاظت در برابر هوش مصنوعی حمایت میکنند. این نگرش، بیانگر تنش فزایندهای است که میان پیشرفت سریع فناوری و چارچوبهای قانونی قدیمی وجود دارد.
معمای کپیرایت: چالش هوش مصنوعی برای مالکیت معنوی در عصر دیجیتال
«فلیکس واندِمائله»، همبنیانگذار و مدیرعامل Collibra، در گفتوگویی با VentureBeat اظهار داشت: «هوش مصنوعی به طور دائمی و اساسی رابطه میان فروشندگان و خالقان فناوری را دگرگون کرده است. سرعتی که شرکتها، چه بزرگ و چه کوچک، در ارائه ابزارها و فناوریهای هوش مصنوعی مولد دارند، صنعت را وادار کرده تا نه تنها مفهوم «استفاده منصفانه» را دوباره تعریف کند، بلکه قوانین کپیرایت با سابقه چند صد ساله ایالات متحده را با فناوری و ابزارهای قرن بیست و یکم تطبیق دهد.»
واندِمائله بر اهمیت عدالت در این چشمانداز جدید تأکید کرد. او بیان میکند: «سازندگان محتوا باید از شفافیت، حمایت و پاداش بیشتری برای زحمات خود برخوردار شوند. دادهها اساس هوش مصنوعی را تشکیل میدهند و تمامی مدلها برای ارائه پاسخهای باکیفیت و قابل اعتماد به دادههای معتبر و باکیفیت (مانند محتوای دارای حق چاپ) نیاز دارند. به نظر میرسد که عادلانه است که سازندگان محتوا پاداش و حمایت مناسبی که شایسته آن هستند را دریافت کنند.»
درخواست برای اصلاح قوانین کپیرایت در پی مجموعهای از دعاوی جنجالی علیه شرکتهای هوش مصنوعی به دلیل نقض ادعایی حقوق کپیرایت مطرح شده است. این پروندهها به مسائل پیچیدهای که مربوط به استفاده از محتوای دارای حق چاپ توسط هوش مصنوعی برای مقاصد آموزشی میباشد، پرداختهاند.
علاوه بر نگرانیهای مربوط به کپیرایت، یک نظرسنجی نشاندهنده حمایت قوی از جبران خسارت به افرادی است که دادههایشان برای آموزش مدلهای هوش مصنوعی به کار میرود. ۸۱ درصد از شرکتکنندگان در این نظرسنجی از پیشنهاد ارائه چنین جبرانی توسط شرکتهای بزرگ فناوری حمایت کردند، که این موضوع نشاندهنده تغییر در نحوه ارزیابی دادههای شخصی در دوران هوش مصنوعی است.
واندِمائله بیان میکند: «تمامی تولیدکنندگان محتوا، بدون توجه به اندازهشان، باید برای استفاده از دادههای خود جبران و حمایت دریافت کنند. با تغییر از هوش مصنوعی به استعداد دادهای، مرز بین یک تولیدکننده محتوا و یک شهروند داده (کسی که به دادهها دسترسی دارد، از آنها برای انجام وظایف خود بهره میبرد و نسبت به دادهها احساس مسئولیت میکند ) به طور فزایندهای محو خواهد شد.»
افزایش فشار برای نظارت بر هوش مصنوعی در سطح ایالتها در غیاب دستورالعملهای فدرال
این نظرسنجی همچنین نشان داد که تمایل به تنظیم مقررات هوش مصنوعی در سطوح فدرال و ایالتی بیشتر از نظارت بینالمللی است. این نگرش با وضعیت کنونی نظارتی در ایالات متحده همخوانی دارد، جایی که ایالتهای مختلف مانند کلرادو در غیاب دستورالعملهای جامع فدرال، اقدام به وضع مقررات هوش مصنوعی خود کردهاند.
فلیکس واندِمائله اظهار داشت: «ایالتهایی مانند کلرادو که نخستین بار اقدام به اجرای مقررات جامع در زمینه هوش مصنوعی کردهاند، یک پیشینه ایجاد کردهاند با اینکه برخی ممکن است آن را زودهنگام تلقی کنند اما این نمونهای مناسب از اقداماتی است که باید برای حفاظت از شرکتها و شهروندان در ایالتهای مختلف انجام شود. در غیاب محافظتهای مشخص و روشن در سطح فدرال، شرکتها به دنبال راهنمایی و آمادگی از مقامات ایالتی خود خواهند بود.»
این مطالعه نشان داد که تفاوت قابل توجهی در حمایت شرکتهای بزرگ و کوچک از تنظیم مقررات دولتی در زمینه هوش مصنوعی وجود دارد. شرکتهای بزرگتر (با بیش از ۱۰۰۰ کارمند) به مراتب بیشتر از کسبوکارهای کوچکتر (با ۱ تا ۹۹ کارمند) از مقررات فدرال و ایالتی حمایت میکنند.
واندِمائله در توضیح این تفاوت بیان کرد: «به نظر من، این موضوع به منابع موجود، زمان و بازده سرمایهگذاری مربوط میشود. شرکتهای کوچکتر معمولاً با احتیاط به فناوریهای جدید نزدیک میشوند که این امر قابل درک است. همچنین، به نظر میرسد که درک درستی از کاربردهای واقعی هوش مصنوعی برای کسبوکارهای کوچک وجود ندارد و این فناوری غالباً به عنوان«توسعه یافته توسط شرکتهای بزرگ برای شرکتهای بزرگ» معرفی میشود، که نیازمند سرمایهگذاری قابل توجه و ایجاد تغییرات در مدلهای عملیاتی و فرآیندهای داخلی فعلی است.»
این نظرسنجی همچنین نشاندهنده وجود شکاف اعتمادی است، به طوری که پاسخدهندگان به جهتگیری هوش مصنوعی شرکتهای خود اعتماد زیادی دارند، اما اعتماد کمتری به دولت و شرکتهای بزرگ فناوری دارند. این موضوع چالشی اساسی برای سیاستگذاران و غولهای فناوری به شمار میآید، زیرا آنها در تلاشند تا آینده مقررات هوش مصنوعی را شکل دهند.
نگرانی برای حریم خصوصی
نگرانیهای مربوط به حریم خصوصی و خطرات امنیتی در صدر تهدیدات درک شده برای مقررات هوش مصنوعی در ایالات متحده قرار دارند و ۶۴ درصد از پاسخدهندگان این موارد را به عنوان نگرانیهای اصلی خود مطرح کردهاند. در واکنش به این مسائل، شرکتهایی نظیر Collibra در حال طراحی راهکارهای حکمرانی هوش مصنوعی هستند.
واندِمائله اظهار داشت: «بدون وجود حکمرانی مناسب بر هوش مصنوعی، احتمال بروز مشکلاتی که شامل نگرانیهای حریم خصوصی و خطرات امنیتی میشود، افزایش مییابد.» او افزود: «در اوایل سال جاری، Collibra اقدام به راهاندازی Collibra AI Governance کرد که به تیمها در حوزههای مختلف این امکان را میدهد تا به طور مؤثر همکاری کنند و اطمینان حاصل کنند که پروژههای هوش مصنوعی با الزامات قانونی و حریم خصوصی سازگار هستند، ریسکهای داده را به حداقل میرسانند و عملکرد مدل و بازده سرمایهگذاری (ROI) را بهبود میبخشند.»
آینده کار: ارتقای مهارتها با هوش مصنوعی و ظهور شهروند داده
با ادامه تلاش کسب و کارها برای سازگاری با پیشرفتهای سریع فناوریهای هوش مصنوعی، نتایج این نظرسنجی نشان میدهد که ۷۵ درصد از شرکتکنندگان اعلام کردهاند که سازمانهای آنها به آموزش و ارتقای مهارتهای هوش مصنوعی اولویت میدهند. این توجه به آموزش و توسعه مهارتها به احتمال زیاد در سالهای آینده تأثیر قابل توجهی بر بازار کار خواهد گذاشت.
با نگاهی به آینده، واندِمائله اولویتهای اساسی برای حکمرانی هوش مصنوعی در ایالات متحده را بیان کرد. او اظهار داشت: «در نهایت، باید به سه تا پنج سال آینده توجه کنیم، زیرا این سرعت پیشرفت هوش مصنوعی است.» سپس چهار اولویت کلیدی را معرفی میکند؛ تبدیل دادهها به بزرگترین منبع ارزش، ایجاد یک چارچوب قابل اعتماد و آزمایششده، آمادهسازی برای سال استعداد داده، و تأکید بر دسترسی مسئولانه پیش از هوش مصنوعی مسئولانه.
حکمرانی بر کیفیت
واندِمائله در گفتگو با VentureBeat اظهار داشت: «حکمرانی نه تنها نمیتواند محدود به فناوری اطلاعات باشد، بلکه حکمرانی دادهها نیز نباید تنها به کمیت دادهها معطوف شود. بلکه باید بر کیفیت دادهها نیز تأکید گردد.»
با ادامه تحول هوش مصنوعی در صنایع و چالشهای موجود در چارچوبهای نظارتی، ضرورت ایجاد استراتژیهای جامع حکمرانی بیش از پیش نمایان میشود. نتایج این نظرسنجی نشان میدهد که در حالی که کسبوکارها به پذیرش فناوریهای هوش مصنوعی روی آوردهاند، آنها همچنین از خطرات احتمالی آگاه بوده و به دنبال راهنماییهای روشن از سوی سیاستگذاران برای توسعه و پیادهسازی مسئولانه این فناوریها هستند.
در سالهای آینده، احتمالاً شاهد بحثها و مذاکرات جدی خواهیم بود، زیرا ذینفعان از دولت، صنعت و جامعه مدنی در تلاشند تا یک محیط نظارتی ایجاد کنند که هم نوآوری را تقویت کند و هم از حقوق فردی محافظت نماید و استفاده اخلاقی از هوش مصنوعی را ترویج دهد. با پیشرفت این چشمانداز، شرکتها در تمامی اندازهها باید هوشیار و سازگار باشند و بر حکمرانی قوی داده و اخلاق هوش مصنوعی تمرکز کنند تا بتوانند چالشها و فرصتهای پیش رو را به خوبی مدیریت کنند.