Filter by دسته‌ها
chatGTP
ابزارهای هوش مصنوعی
اخبار
گزارش
تیتر یک
چندرسانه ای
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
دانش روز
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
دیتاست
رویدادها
جیتکس
کاربردهای هوش مصنوعی
کتابخانه
اشخاص
شرکت‌های هوش مصنوعی
محصولات و مدل‌های هوش مصنوعی
مفاهیم
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
مقاله
 خلاهای قانونی؛ اصلی‌ترین چالش هوش مصنوعی

خلاهای قانونی؛ اصلی‌ترین چالش هوش مصنوعی

زمان مطالعه: 2 دقیقه

به گزارش هوشیو به نقل از پایگاه خبری تحلیلی رادیو ‌گفت‌وگو، دکتر امیرحسین زادیوسفی عضو هیئت علمی دانشگاه تربیت مدرس، روز 12 خرداد 1400 مهمان برنامه «‌گفت‌وگوی علمی» در رادیو ‌گفت‌وگو بود و در بحثی که تحت عنوان «توسعه هوش مصنوعی و خلاهای قانونی» شکل گرفت، درباره اصلی‌ترین چالش هوش مصنوعی ، فلسفه اخلاق در هوش مصنوعی و خلاهای قانونی که در حال حاضر در این حوزه وجود دارد، صحبت کرد و بر ضروریت و اهمیت این موضوع تاکید کرد.

عضو هیئت علمی دانشگاه تربیت مدرس در رادیو ‌گفت‌وگو بیان داشت: «هوش مصنوعی علاوه بر ارائه خدمات متنوع به افراد، لوازم اخلاقی را نیز به همراه دارد.» وی افزود: «اگر سیاست مداران و حقوقدانان ما فکر می‌کنند دلایل بسیار خوبی برای توسعه سیستم‌های هوشمند وجود دارد، در مرحله بعد باید به این سوال پاسخ دهند که مسئولیت در سیستم‌های هوشمند با چه کسی است و به کاوش‌های نظری و فقهی و وضع قوانین اقدام نمایند.»

دکتر زادیوسفی شکاف مسئولیتی و ادبیات علمی عمیق را نتیجه توسعه سیستم‌های هوشمند دانست و اظهار کرد: «سیستم‌های هوشمند خودمختار مانند ماشین‌های خودران بر اساس الگوریتمی که برای آن‌ها تعریف شده فعالیت می‌کنند و در مقام عمل، به مثابه یک انسان تصمیم می‌گیرند.» وی مشخص نبودن مسئولیت اخلاقی این دگرگونی و شکاف مسئولیتی را چالش هوش مصنوعی و سیستم‌های خودمختار به ویژه در حوزه نظامی عنوان کرد و در این باره گفت: «مشخص نیست که مسئولیت اخلاقی این‌گونه سیستم‌ها، با تولیدکننده است یا بهره‌بردار.»

عضو هیئت علمی دانشگاه تربیت مدرس در رادیو گفت‌وگو، به سه دیدگاه عمده در باب شکاف مسئولیت در این حوزه اشاره کرد و گفت: «بر اساس دیدگاه اول، هیچ‌کس در حوزه سیستم هوشمند مسئولیت ندارد، چون باید افرادی را مسئول این کار دانست که روی آن کنترل داشته باشند، لذا معتقدند که هوش مصنوعی مانند سلاح‌های هسته‌ای نباید توسعه پیدا کند. طبق دیدگاه دوم، طراحان و سازندگان سیستم هوشمند، روی آن هیچ کنترلی ندارند و لذا نمی‌توان آن‌ها را مسئول دانست و بر اساس دیدگاه سوم، طراحان و کاربران این حوزه مسئولیت اصلی را به عهده دارند».

برنامه «‌گفت‌وگوی علمی» با هدف روشنگری و امیدآفرینی، مباحثه‌هایی را با حضور فرهیختگان و نخبگان دنیای علم و فناوری ارائه می‌دهد و توسعه علمی و پیش‌بینی‌های آتی دنیای علم و فناوری را تحلیل و واکاوی می‌کند.

جدیدترین اخبار هوش مصنوعی ایران و جهان را با هوشیو دنبال کنید

میانگین امتیاز / 5. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
[wpforms id="48325"]