نمایشگاه هوش مصنوعی و کلان داده (2021): اصول اخلاقی، باورهای غلط و درک دادهها
طبق پیشبینیهای انجام شده، ظرف چند سال آینده ارزش بازار جهانی هوش مصنوعی روند صعودی در پیش میگیرد و ارزش آن در سال 2025 به 61/190 میلیارد دلار افزایش پیدا میکند. طبق برآوردهای صورت گرفته، در سال 2030، هوش مصنوعی سهم 7/15 تریلیون دلاری (معادل 26 درصد رشد) در GDP جهانی خواهد داشت و این موضوع باعث شد توجهات بیشتر جلب نمایشگاه هوش مصنوعی و کلان داده شود که این هفته در لندن برگزار شد.
علاوه بر آنچه گفته شد، طبق پیشبینی Gartner تا سال 2022، بیشتر شرکتها به طور میانگین 35 پروژه هوش مصنوعی در دست اجرا خواهند داشت.
انتظار میرود صنعت تولید نسبت به دیگر صنایع مصرف نهایی End-use industry رشد سریعتری داشته باشد. افزایش حجم دادههایی که از زنجیره ارزش صنعت تولید استخراج میشوند، راه را برای ورود تحلیل هوشمند دادهها به عرصه تولید باز کرده است. علاوه بر این، طرحهای صنعتی متعددی، از جمله طرح انقلاب صنعتی چهارم (Industry 4.0) به افزایش تعداد دستگاههای هوشمند در بخش تولید دامن زده است. Industry 4.0 یکی از طرحهای دولت آلمان حول تولید متصل Connected manufacturing است.
کسبوکارها خودکارسازی امور، از جمله صدور صورت حساب و اعتبارسنجی قرارداد را از جمله موارد کاربرد بسیار مهم هوش مصنوعی میدانند.
علاوه بر این، 80 درصد از مدیران اجرایی خردهفروشیها امیدوارند تا سال 2027 اتوماسیون هوشمند را در شرکتهای خود به اجرا در آورند. اصلیترین کاربرد هوش مصنوعی در صنعت خردهفروشی مشارکت مشتری (رباتهای سخنگو، تحلیل پیشبینی کننده رفتار، فرا شخصیسازی) است.
در مقابل، کمبود نیروی باتجربه و آموزش دیده مانعی بر سر راه رشد بازار هوش مصنوعی است.
نمایشگاه هوش مصنوعی و کلان داده
در نمایشگاه هوش مصنوعی و کلان داده Ai & amp; Big Data Expo، که این هفته در لندن برگزار شد، به طور جدی به فرصتها و چالشهای پیرامون هوش مصنوعی و کلان داده پرداخته شد.
در نمایشگاه هوش مصنوعی و کلان داده ،که بخشی از نمایشگاه و کنفرانس جهانی TechEx است، برخی از استراتژیها و فنآوریهای نسل بعد به نمایش گذاشته شدند. همچنین فرصتی برای شرکتکنندگان فراهم شد تا راهکارهای پیادهسازی عملی و موفقیتآمیز هوش مصنوعی و کلان داده، تأثیر آن در پیشبرد کسبوکارها و ساختن آیندهای هوشمندتر را بررسی کنند.
در جریان این رویداد دو روزه مسائل و موضوعات گوناگونی مورد بحث قرار گرفت. از جمله مهمترین این مسائل میتوان به باورهای غلط، سوءبرداشت نسبت به هوش مصنوعی، اصول اخلاقی، الگوریتمها و نحوه برخورد شرکتها با حجم عظیم دادهها اشاره کرد.
خرافهزدایی از هوش مصنوعی
میرنا مکگرگور، رئیس یادگیری ماشین – تدوین و اجرای استراتژی، سرپرست هوش مصنوعی/ یادگیری ماشین مسئولیتپذیر در BBC، در جریان سخنرانی خود در نمایشگاه هوش مصنوعی و کلان داده اظهار داشت: « نباید اهمیت اندیشیدن به ماهیت چالشها را نادیده بگیریم. بدون شک، در این مسیر موانعی وجود دارد. اولین مانع را از منظر فنی میتوان بررسی کرد. در مباحثاتی که پیرامون هوش مصنوعی و کدنویسی الگوریتمها شکل میگیرد، اغلب از اصطلاحات فنی – تخصصی استفاده میشود. و طبیعی است که برخی از افرادی که قصد دارید با آنها همکاری کنید، با این اصطلاحات آشنایی نداشته باشند.»
«دوم، نظریات بیشماری در مورد نحوهی جایگزینی هوش مصنوعی با مشاغل وجود دارد. اینکه تا 10 الی 20 سال آینده، درصد بزرگی از مشاغل از رده خارج میشوند، و هوش مصنوعی فنآوری سودمندی نیست. اما واقعیت این است که هوش مصنوعی، به عنوان یک فنآوری کمکی، ابزاری است که به افراد کمک میکند وظایفشان را بهتر انجام دهند.»
«علاوه بر این، افراد بسیاری بر این باورند که پیادهسازی و اجرای هوش مصنوعی کار آسانی است. شاید برخی میپندارند هوش مصنوعی چیزی است که به راحتی میتوانند آن را از قفسه بردارند و مشکلات خود را با آن حل کنند، یا میتوانند مقدار کمی از آن را برای حل مشکلات خود به کار گیرند.»
اصول اخلاقی و مسئولیتپذیری
وی در ادامه اظهار داشت: « اصول اخلاقی و مسئولیتپذیری دو مقوله مجزا از هم نیستند. شما باید اهدافی که دنبال میکنید را از منظر اجتماعی بررسی کنید. باید رسالت و ارزشهای سازمانی خود را مد نظر قرار دهید و آنها را در فنآوریهایی که میسازید ، ادغام کنید.»
«به عقیده من، اصلیترین مؤلفههای مسئولیتپذیری اجتناب از استنباط منفی، ساختن چیزی که کارایی دارد و مهمتر از آن ساختن چیزی است که به کاربران خانگی فایده برساند. این باور تا حدودی متأثر از تفکری است که ما راجع به BBC و جنبه جهانی بودن آن داریم. به عقیده من، برای دستیابی به آن به دو چیز نیاز دارید: اندیشمندی – به عبارت دیگر، اندیشیدن به تأثیرات چیزی که قصد دارید بسازید – و همکاری.»
«باید به دیدگاههای ذینفعان مختلف توجه کنید، به طوریکه همکاری و دیدگاههای مختلف آنان را در کار خود منعکس کنید. از دیدگاه BBC، مسئولیتپذیری پایبندی به ارزشهایی است که ما در قالب یک سازمان برای خود تعیین کردهایم. از این روی، استقلال و بیطرفی برای ما اهمیت زیادی دارد.»
قدرتمند بودن الگوریتمها
ایلیا فیج، مدیر AI at Faculty، در سخنرانی در نمایشگاه هوش مصنوعی و کلان داده اظهار داشت:«هوش عام داریم و اَبَرهوشف و مردم حق دارند که راجع به این مسئله نگران باشند. اما در حال حاضر، سازمانها باید توجه خود را به انصاف، توضیحپذیری، حریم خصوصی و قدرتمند بودن معطوف کنند»
«به عقیده من، مردم نسبت به سه مورد اول درک و شناخت کافی دارند. فرض من این است که مردم در مورد این سه مقوله زیاد بحث و گفتوگو کردهاند و یا مطالب زیادی پیرامون این موضوعات خواندهاند. قدرتمند بودن موضوعی است که کمتر به آن پرداخته شده است. منظور از قدرتمند بودن این است که چه زمانی میتوانید به طور کامل به الگوریتمهای خود اعتماد کنید یا به صحت عملکرد آنها اطمینان داشته باشید. به عبارت دیگر، چه جایی احتمال دارد الگوریتم شما خطا کند؟ برای رسیدن به پاسخ این سؤال روشهای متفاوتی وجود دارد، برای مثال، توزیع دادهها تغییر کرده، پس میتوان نتیجه گرفت که مدل کارایی قبل را ندارد. مدل قبلاً عملکرد خوبی داشته، اما الان نه.»
«البته روشهای دیگری از جمله بررسی قسمتهای مختلف فضای داده Data space نیز وجود دارد؛ در کدام قسمت عملکرد مدل به صورت فاجعه باری بد است و یا حتی احتمال حمله وجود دارد. بنابراین به روشهای گوناگونی میتوانید به الگوریتم حمله کنید و یا دادههایی به آن بدهید و آن را فریب دهید. از این روی میتوان گفت، قدرتمند بودن موضوعی گستردهای است که کمتر از انصاف، حریم خصوصی و توضیحپذیری به آن پرداخته شده است.»
درک دادهها
مارک ویلسون، سرپرست نظارت بر داده در Handelsbanken، واقع در بریتانیا، میگوید: «پس از اینکه دادهها را در انبار و سیلو جمعآوری کردید، چگونه آنها را کنترل میکنید؟ چگونه دادهها را استخراج میکنید؟ آیا در انجام این کار مهارت دارید؟ زمانی که صحبت از نظارت به میان میآید، منظور من این است که آیا شما بر دادههای خود کنترل دارید؟ به عبارت دیگر، زمانی که مردم به دادههای شما نگاه میکنند، هیچ درکی از آن دارند؟
باعث تأسف است که هنوز بسیاری از سازمانها به این امر تسلط کافی ندارند. اگر نگاهی به کنفرانسهای فنآوری، شرکتهای ارائهدهنده بیندازید، میبینید که همه یک داشبورد دارند، همه چیز عالی به نظر میرسد. اما آیا آنها اصول و مبانی را، کنترلگرهای کیفیت داده را به درستی به اجرا درآوردهاند؟ نظارت برای سطربندی، مستندسازی زیان و دیکشنریها نیز صدق میکند. بنابراین، ممکن است همه چیز بی نقص به نظر برسد، اگر به این پاورپوینت یا هیتمپ نگاه کنید، من با اطمینان 100 درصدی به شما میگویم که این دادهها خوب هستند. اما شما این کار را نمیکنید، زیرا بسیاری از افراد فقط به داشبوردها توجه میکنند.
مسئولیت در قبال دادهها
تمامی افرادی که در یک شرکت مشغول به کار هستند مسئولیتی در قبال دادهها دارند. برای مثال، کسانی که از دادهها استفاده میکنند – که طبیعتأ شامل همه افراد میشود. افراد دادهها را برای ایجاد پاورپوینت و یا ایجاد یک بسته مدیریتی جمعآوری میکنند و یا دادهها را برای ذخیرهسازی و استفاده در جایی دیگر جمعآوری میکنند.
با این وجود، برای تدوین استانداردها به یک تابع متمرکز برای نظارت بر داده نیاز دارید. شما باید به صاحبان داده و دیتاستهای سازمانی خود دسترسی داشته باشید.
بنابراین، افراد باید از وجود استراتژی، چارچوب و قوانین داده مطمئن شوند. علاوه بر آن، تمامی افراد باید به استانداردهای شرکت واقف باشند. و فردی باید وجود داشته باشند که آنها را به اجرا درآورد. زیرا هیچکس حاضر نمیشود تکه کاغذی مبهم را مطالعه کند. شما به یک مدیر ارشد داده نیاز دارید. این کار نمیتوانید به بخش IT محول کنید. داده ارتباطی به IT ندارد. داده ما را توانمند میسازد.
سیستمها به شما در انجام امور کمک میکنند. اما در نهایت باید فردی مسئول دادهها باشد که با کسبوکار شما آشنایی داشته باشد.»
جدیدترین اخبار هوش مصنوعی ایران و جهان را با هوشیو دنبال کنید