پوشش رسانه‌ای جیتکس ۲۰۲۴ | با ما همراه باشید

Filter by دسته‌ها
chatGTP
ابزارهای هوش مصنوعی
اخبار
گزارش
تیتر یک
چندرسانه ای
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
دانش روز
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
دیتاست
رویدادها
جیتکس
کاربردهای هوش مصنوعی
کتابخانه
اشخاص
شرکت‌های هوش مصنوعی
محصولات و مدل‌های هوش مصنوعی
مفاهیم
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
مقاله
 تفکیک واقعیت‌ها از تبلیغات پر زرق و برق

چالش‌های اصلی هوش مصنوعی:

تفکیک واقعیت‌ها از تبلیغات پر زرق و برق

زمان مطالعه: 3 دقیقه

اگرچه استقرار و توسعۀ هوش مصنوعی مولد به‌عنوان ابزاری برای افزایش چشمگیری بهره‌وری در کسب‌وکار انجام می‌شود، این انتظار بالا از هوش مصنوعی مولد به نظارت انسانی زیادی نیاز دارد که خود در تضاد با بهره‌وری است.

مشکلات هوشمندی

 علی‌رغم اینکه معمولاً وعده داده می‌شود که ابزارهای هوش مصنوعی مولد برای ایجاد و افزایش بهره‌وری توسعه داده می‌شوند، ابهامی که دربارۀ پتانسیل و مضرات این فناوری وجود دارد، مانع اجرایی شدن این وعده‌ها می‌شود.

مسائل متعددی مانند عدم شفافیت، توضیح‌پذیری، امنیت، حریم خصوصی، حاکمیت داده‌ها، رعایت عدالت و عدم تبعیض، مشکلات سازمانی، فنی و اجتماعی که نیاز به نظارت انسانی برای هوش مصنوعی را آشکار می‌کنند، باعث شده است پتانسیل این فناوری به چالش کشیده شود و توسعه‌دهندگان آن با مشکلاتی روبه‌رو شوند.

علاوه بر این مسائل، موارد دیگری نیز وجود دارند که با ایجاد جذابیت سطحی و عدم توجه به عواقب آن، موجب جهت‌گیری اشتباه در استفاده از این فناوری می‌شوند. در این مطلب به بررسی شش نکته می‌پردازیم که باید به آن‌ها توجه کرد تا از دام امید واهی و هیاهوی تبلیغاتی دربارۀ هوش مصنوعی مولد دور شویم و بتوانیم از این فناوری به درستی بهره‌برداری کنیم.

1- هیچ ابزاری بدون دقت بازدهی ندارد؛ هوش مصنوعی نیز از این قاعده مستثنا نیست

ارزش و اعتبار هوش مصنوعی مولد به میزان دقت آن بستگی دارد. باید بررسی کرد که نتایج هوش مصنوعی مولد تا چه اندازه با منابع قابل‌استناد هم سو بوده و دقت این ابزارها در ارائه پاسخ‌های مختلف چقدر است. بدون اطمینان از صحت و دقت این ابزارها، حتی برای ساده‌ترین کسب‌وکارها، نمی‌توان از آن‌ها حتی برای ساده‌ترین کسب‌وکارها استفاده کرد؛ زیرا نتایج و خدمات اشتباه می‌توانند چالش‌های فراوانی ایجاد کنند. به‌عنوان‌مثال، بی‌دقتی هوش مصنوعی در شرکت Air Canada مشکلات جدی برای شرکت و کاربرانش به وجود آورد. عدم دقت و درستی در عملکرد، موجب کاهش اعتماد به ابزارهای هوش مصنوعی مولد خواهد شد و پذیرش آن‌ها در محیط کسب‌وکار را دشوار خواهد کرد.

2- ادعای بی‌طرفانه بودن هوش مصنوعی مولد، نقض بی‌طرفی است

تصور غلط اینکه هوش مصنوعی مولد می‌تواند بی‌طرف باشد، بزرگ‌ترین محدودیت این فناوری است. روش‌های پاسخ‌دهی برخی از چت‌بات‌های هوش مصنوعی این اعتقاد را زیر سؤال می‌برند. به طور خاص، چت‌بات‌های هوش مصنوعی با ادعای بی‌طرفی، در واقع خود این ادعا را نقض می‌کنند. مطالعه‌ای که اخیراً توسط محققان برزیلی و بریتانیایی انجام داده‌اند، نگرانی‌هایی را دربارۀ میزان شفافیت ChatGPT آشکار می‌کند. هنگامی که این پژوهشگران از ChatGPT درباره سوگیری ابزارهای هوش مصنوعی سؤال کردند، ChatGPT ادعای آن‌ها را رد کرد که خود نشان‌دهنده شدیدترین سوگیری است.

3- هوش مصنوعی برای پیش‌بینی وقایع، توانایی خارج شدن از الگوی آموزش‌داده‌شده را ندارد

برخلاف خلاقیت انسان که از تجارب و احساسات و هدف شخصی ناشی می‌شود، هوش مصنوعی مولد کنونی در قالب الگوهای آموزش‌داده‌شده عمل می‌کند و توانایی خلاقیت و خروج از این الگوها را ندارد. این موضوع باعث می‌شود محتوای تولیدشده توسط هوش مصنوعی فاقد اصالت و اعتبار باشد. در واقع، این فناوری توانایی پیش‌بینی بر اساس خلاقیت و نوآوری مشابه انسان را ندارد. مطالعه‌ای که به تازگی در Science Advances منتشر شده است، تفاوت چشمگیری میان ایجاد چیز جدید و تغییرات در آنچه موجود است، قائل می‌شود؛ بنابراین، نباید فراموش کرد که هوش مصنوعی برخلاف هوش انسانی، توانایی ورود به قلمروهای فکری ناشناخته را ندارد.

4- موانع هوش مصنوعی نباید در بین امید و هیاهوی تبلیغاتی موجود پنهان شوند

اگرچه هوش مصنوعی مولد به‌عنوان ابزاری برای افزایش چشمگیری بهره‌وری در کسب‌وکار معرفی شده است، انتظار زیاد از این فناوری نیازمند نظارت انسانی فراوانی است که با مفهوم بهره‌وری در تضاد است. با اینکه این ابزارها وعده‌هایی برای افزایش بهره‌وری دارند، ابهاماتی دربارۀ پتانسیل و مضرات آن‌ها مانع تحقق این وعده‌ها شده است. مسائل مربوط به شفافیت، توضیح‌پذیری، امنیت، حریم خصوصی، حاکمیت داده‌ها، رعایت عدالت و عدم تبعیض و مشکلات سازمانی و فنی، نیاز به نظارت انسانی برای هوش مصنوعی را آشکار می‌کنند و چالش‌هایی را در مسیر توسعۀ این فناوری ایجاد می‌کنند.

۵) رقابت برای دستیابی به هوش عمومی مصنوعی (AGI)

کسانی که GPT را تنها به عنوان پیش‌غذای هوش عمومی مصنوعی می‌دانند، ممکن است کسانی نباشند که آن را به واقعیت تبدیل کنند. با این حال، درست مانند اینکه لامپ الکتریکی با بهبود شمع اختراع نشد، مدل‌های زبانی بزرگ (LLMs) نیز بعید است به چیزی فراتر از چت‌بات‌های پیشرفته تبدیل شوند. از جمله دیگر مسائل، LLMها هیچ شکلی از تجسم یا تعامل با دنیای فیزیکی ندارند، توانایی استدلال در مورد علت و معلول را ندارند، توانایی محدودی در حفظ زمینه در مکالمات طولانی دارند و در انجام وظایفی که نیاز به درک وابستگی‌های بلندمدت یا مدیریت چندین جریان اطلاعات به طور همزمان دارند، با مشکل مواجه هستند.

6- آیندۀ هوش مصنوعی در توسعه بیشتر هوش مصنوعی نیست؛ بلکه در افزایش صداقت است

تنها با ایجاد شفافیت و صداقت در ابزارهای هوش مصنوعی است که می‌توان اطمینان حاصل کرد که این ابزارها به ابزارهایی برای ظلم و تبعیض تبدیل نمی‌شوند. هوش مصنوعی باید موجب تقویت حس انسانیت و یکپارچگی شود.

در نهایت، برای استفادۀ صحیح از پتانسیل هوش مصنوعی، باید از امید واهی و هیاهوی تبلیغاتی دوری کنیم و به دنبال ایجاد یکپارچگی و صداقت در دنیای هوش مصنوعی باشیم. تنها در این صورت است که می‌توانیم به درستی از این فناوری بهره‌برداری کنیم و آینده‌ای انسان‌محور بسازیم.

میانگین امتیاز / 5. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
[wpforms id="48325"]