Filter by دسته‌ها
chatGTP
ابزارهای هوش مصنوعی
اخبار
گزارش
تیتر یک
چندرسانه ای
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
دانش روز
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
دیتاست
رویدادها
جیتکس
کاربردهای هوش مصنوعی
کتابخانه
اشخاص
شرکت‌های هوش مصنوعی
محصولات و مدل‌های هوش مصنوعی
مفاهیم
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
مقاله
 هوش مصنوعی و اخلاق ، این فناوری رفتار افراد را کنترل می‌کند

هوش مصنوعی و اخلاق ، این فناوری رفتار افراد را کنترل می‌کند

زمان مطالعه: 3 دقیقه

هوش مصنوعی و اخلاق رابطه جالبی دارند و این فناوری به صورت فزاینده می‌آموزد که چطور با انسان‌ها رفتار کند و روی آن‌ها تأثیر بگذارد. پژوهشی جدید نشان داده است هوش مصنوعی چطور می‌تواند نقاط آسیب‌پذیر در عادات و رفتار انسانی را تشخیص داده و برای تأثیر گذاشتن روی تصمیم‌گیری افراد از آن‌ها استفاده کند.

بدیهی است رابطه هوش مصنوعی و اخلاق می‌تواند هر جنبه از زندگی ما را تغییر می‌دهد. اشکال گوناگون هوش مصنوعی در حوزه‌های گوناگونی همچون ساخت واکسن، مدیریت محیط زیست و اجرای امور اداری به کار می‌روند. با این‌که هوش مصنوعی، هوش و عواطف انسانی ندارد، قابلیت‌هایی چشمگیر دارد که با سرعت زیاد در حال توسعه هستند.

هنوز جای نگرانی برای تسلط ماشین‌ها بر انسان‌ها وجود ندارد، اما کشفیات جدید حاکی از قدرت هوش مصنوعی هستند و بر لزوم مدیریت این رویه به منظور جلوگیری از سوءاستفاده‌های احتمالی تآکید می‌کنند.

هوش مصنوعی چطور می‌تواند تأثیرگذاری بر رفتار انسان‌ها را بیاموزد؟

تیمی از محققان سازمان CSIRO Commonwealth Scientific and Industrial Research Organization که در پروژه‌ی Data61 مشارکت داشته‌اند (Data61 بازوی داده‌ای و دیجیتالی آژانس علوم ملی استرالیا) روشی سیستماتیک طراحی کرده‌اند که می‌تواند با شبکه های عصبی بازگشتی و یادگیری تقویتی عمیق، نقاط آسیب‌پذیر رفتارها و فرآیندهای تصمیم‌گیری انسان‌ها را تشخیص داده و از آن‌ها استفاده کند. این پژوهشگران برای آزمایش مدل خود، سه طرح آزمایشی اجرا کردند که در هرکدام، آزمودنی‌های انسانی در برابر یک کامپیوتر بازی می‌کردند.

آزمایش اول

در اولین آزمایش، آزمودنی‌ها روی خانه‌های قرمز یا آبی کلیک می‌کردند تا مقداری پول قلابی برنده شوند. در همین حین، هوش مصنوعی الگوهای تصمیم‌گیری آزمودنی‌ها را می‌آموخت و آن‌ها را در جهت انتخابی مشخص هدایت می‌کرد. هوش مصنوعی در 70% مواقع موفق عمل کرد.

آزمایش دوم

در آزمایش دوم برای کشف بهتر رابطه هوش مصنوعی و اخلاق، آزمودنی‌ها باید به یک صفحه‌نمایش نگاه می‌کردند و زمانی که یک نماد خاص (مثلاً یک مثلث نارنجی) را می‌دیدند دکمه‌ای را می‌فشردند، و زمانی که نماد دیگری (مثل دایره‌ی آبی) می‌دیدند، نباید آن دکمه را فشار می‌دادند. در این موقعیت، هوش مصنوعی توانست توالی نمادها را طوری تغییر دهد که آزمودنی‌ها اشتباهات بیشتری مرتکب شوند؛ میزان موفقیت هوش مصنوعی در این سناریو حدود 25% افزایش یافت.

هوش مصنوعی و اخلاق

 

آزمایش سوم

آزمایش سوم چند دور داشت که آزمودنی باید در آنها نقش سرمایه‌گذاری را ایفا می‌کرد که می‌خواهد به طرف مقابل (که هوش مصنوعی بود) پولی بدهد. هوش مصنوعی مقداری پول به سرمایه‌گذار برمی‌گرداند و او در دور بعدی باید دوباره تصمیم می‌گرفت که این بار چقدر سرمایه‌گذاری کند. این بازی در دو حالت برگزار می‌شد: در حالت اول، هوش مصنوعی قصد داشت بیشترین پول ممکن را در انتهای بازی در اختیار خود داشته باشد، و در حالت دوم قصدش این بود که پول بین خودش و فرد آزمودنی (سرمایه‌گذار) به صورت عادلانه تقسیم شود. هوش مصنوعی در هر دو حالت عملکرد بسیار خوبی داشت.

در هر آزمایش، ماشین از روی پاسخ آزمودنی‌ها آموخت و بدین ترتیب نقاط آسیب‌پذیر تصمیم‌گیری افراد را شناسایی کرد و هدف قرار داد. نتیجه‌ی نهایی این بود که ماشین یاد گرفت آزمودنی‌ها را به سمت اقدامات خاصی هدایت کند.

این پژوهش چه معنایی برای آینده‌ی هوش مصنوعی دارد؟

این یافته‌ها هنوز انتزاعی بوده و مربوط به موقعیت‌هایی محدود و غیرواقعی هستند. برای تعیین این‌که این رویکرد چه تاثیری بر ارتباط بین هوش مصنوعی و اخلاق دارند و چطور می‌توان آن‌ها را به نفع جامعه به کار برد، هنوز پژوهش‌های زیادی لازم است.

با این حال، پژوهش حاضر توانست درک ما را از ارتباط هوش مصنوعی و اخلاق و  پتانسیل‌های این فناوری و همچنین از نحوه‌ تصمیم‌گیری افراد، افزایش و توسعه داد. با توجه به یافته‌هایی که بیان شد دریافتیم ماشین می‌تواند از طریق تعامل با انسان‌ها، تصمیم‌گیری آن‌ها را جهت داده و بر آن تأثیر بگذارد.

کاربردهای احتمالی پژوهش حاضر بازه‌ وسیعی (ارتقای علوم رفتاری، بهبود سیاست‌های جمعی، افزایش بهزیستی اجتماعی و حتی تأثیرگذاری بر عادات سلامتی و غذایی افراد و یا چگونگی استفاده‌ آن‌ها از انرژی تجدیدپذیر) را به خود اختصاص می‌دهند. هوش مصنوعی و یادگیری ماشین را می‌توان برای شناسایی آسیب‌پذیری‌های افراد در موقعیت‌های مختلف و کمک به آن‌ها برای اجتناب از تصمیمات اشتباه به کار برد.

یکی از کاربردهای این مورد در دفاع برابر حملات نفوذی Influencing attacks است. می‌توان به ماشین‌ها آموخت زمانی که افراد، برای مثال در فضای آنلاین، تحت نفوذ قرار می‌گیرند به آن‌ها هشدار دهند و کمک کنند رفتاری از خود نشان دهند که آسیب‌پذیری‌شان را پنهان می‌کند (برای مثال کلیک نکردن روی صفحاتی خاص یا کلیک روی برخی دیگر برای رد گم کردن).

گام بعدی

هوش مصنوعی نیز مثل هر فناوری دیگری می‌تواند در جهت خوب یا بد مورد استفاده قرار گیرد. برای اطمینان از کاربردهای مسئولانه، وجود نظارت و مدیریت ضروری است. سال قبل CSIRO چارچوبی برای هوش مصنوعی و اخلاق و به‌کارگیری صحیح این فناوری برای دولت استرالیا طراحی کرد؛ موارد این چنینی می‌توانند گام خوبی برای آغاز مسیر باشند.

به نظر شما باید به خاطر کمک هوش مصنوعی به انسان در زمینه‌های مختلف با قدرت بیشتری روی توسعه آن فعالیت کرد یا از قدرت گرفتن آن ترسید و کمی بیشتر روی تئوری احتمالی تسلط ماشین بر انسان تأمل کرد؟

 

انواع کاربردهای هوش مصنوعی در صنایع مختلف را در هوشیو بخوانید

میانگین امتیاز / 5. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
[wpforms id="48325"]