چالشهای اصلی هوش مصنوعی:
تفکیک واقعیتها از تبلیغات پر زرق و برق
اگرچه استقرار و توسعۀ هوش مصنوعی مولد بهعنوان ابزاری برای افزایش چشمگیری بهرهوری در کسبوکار انجام میشود، این انتظار بالا از هوش مصنوعی مولد به نظارت انسانی زیادی نیاز دارد که خود در تضاد با بهرهوری است.
مشکلات هوشمندی
علیرغم اینکه معمولاً وعده داده میشود که ابزارهای هوش مصنوعی مولد برای ایجاد و افزایش بهرهوری توسعه داده میشوند، ابهامی که دربارۀ پتانسیل و مضرات این فناوری وجود دارد، مانع اجرایی شدن این وعدهها میشود.
مسائل متعددی مانند عدم شفافیت، توضیحپذیری، امنیت، حریم خصوصی، حاکمیت دادهها، رعایت عدالت و عدم تبعیض، مشکلات سازمانی، فنی و اجتماعی که نیاز به نظارت انسانی برای هوش مصنوعی را آشکار میکنند، باعث شده است پتانسیل این فناوری به چالش کشیده شود و توسعهدهندگان آن با مشکلاتی روبهرو شوند.
علاوه بر این مسائل، موارد دیگری نیز وجود دارند که با ایجاد جذابیت سطحی و عدم توجه به عواقب آن، موجب جهتگیری اشتباه در استفاده از این فناوری میشوند. در این مطلب به بررسی شش نکته میپردازیم که باید به آنها توجه کرد تا از دام امید واهی و هیاهوی تبلیغاتی دربارۀ هوش مصنوعی مولد دور شویم و بتوانیم از این فناوری به درستی بهرهبرداری کنیم.
1- هیچ ابزاری بدون دقت بازدهی ندارد؛ هوش مصنوعی نیز از این قاعده مستثنا نیست
ارزش و اعتبار هوش مصنوعی مولد به میزان دقت آن بستگی دارد. باید بررسی کرد که نتایج هوش مصنوعی مولد تا چه اندازه با منابع قابلاستناد هم سو بوده و دقت این ابزارها در ارائه پاسخهای مختلف چقدر است. بدون اطمینان از صحت و دقت این ابزارها، حتی برای سادهترین کسبوکارها، نمیتوان از آنها حتی برای سادهترین کسبوکارها استفاده کرد؛ زیرا نتایج و خدمات اشتباه میتوانند چالشهای فراوانی ایجاد کنند. بهعنوانمثال، بیدقتی هوش مصنوعی در شرکت Air Canada مشکلات جدی برای شرکت و کاربرانش به وجود آورد. عدم دقت و درستی در عملکرد، موجب کاهش اعتماد به ابزارهای هوش مصنوعی مولد خواهد شد و پذیرش آنها در محیط کسبوکار را دشوار خواهد کرد.
2- ادعای بیطرفانه بودن هوش مصنوعی مولد، نقض بیطرفی است
تصور غلط اینکه هوش مصنوعی مولد میتواند بیطرف باشد، بزرگترین محدودیت این فناوری است. روشهای پاسخدهی برخی از چتباتهای هوش مصنوعی این اعتقاد را زیر سؤال میبرند. به طور خاص، چتباتهای هوش مصنوعی با ادعای بیطرفی، در واقع خود این ادعا را نقض میکنند. مطالعهای که اخیراً توسط محققان برزیلی و بریتانیایی انجام دادهاند، نگرانیهایی را دربارۀ میزان شفافیت ChatGPT آشکار میکند. هنگامی که این پژوهشگران از ChatGPT درباره سوگیری ابزارهای هوش مصنوعی سؤال کردند، ChatGPT ادعای آنها را رد کرد که خود نشاندهنده شدیدترین سوگیری است.
3- هوش مصنوعی برای پیشبینی وقایع، توانایی خارج شدن از الگوی آموزشدادهشده را ندارد
برخلاف خلاقیت انسان که از تجارب و احساسات و هدف شخصی ناشی میشود، هوش مصنوعی مولد کنونی در قالب الگوهای آموزشدادهشده عمل میکند و توانایی خلاقیت و خروج از این الگوها را ندارد. این موضوع باعث میشود محتوای تولیدشده توسط هوش مصنوعی فاقد اصالت و اعتبار باشد. در واقع، این فناوری توانایی پیشبینی بر اساس خلاقیت و نوآوری مشابه انسان را ندارد. مطالعهای که به تازگی در Science Advances منتشر شده است، تفاوت چشمگیری میان ایجاد چیز جدید و تغییرات در آنچه موجود است، قائل میشود؛ بنابراین، نباید فراموش کرد که هوش مصنوعی برخلاف هوش انسانی، توانایی ورود به قلمروهای فکری ناشناخته را ندارد.
4- موانع هوش مصنوعی نباید در بین امید و هیاهوی تبلیغاتی موجود پنهان شوند
اگرچه هوش مصنوعی مولد بهعنوان ابزاری برای افزایش چشمگیری بهرهوری در کسبوکار معرفی شده است، انتظار زیاد از این فناوری نیازمند نظارت انسانی فراوانی است که با مفهوم بهرهوری در تضاد است. با اینکه این ابزارها وعدههایی برای افزایش بهرهوری دارند، ابهاماتی دربارۀ پتانسیل و مضرات آنها مانع تحقق این وعدهها شده است. مسائل مربوط به شفافیت، توضیحپذیری، امنیت، حریم خصوصی، حاکمیت دادهها، رعایت عدالت و عدم تبعیض و مشکلات سازمانی و فنی، نیاز به نظارت انسانی برای هوش مصنوعی را آشکار میکنند و چالشهایی را در مسیر توسعۀ این فناوری ایجاد میکنند.
۵) رقابت برای دستیابی به هوش عمومی مصنوعی (AGI)
کسانی که GPT را تنها به عنوان پیشغذای هوش عمومی مصنوعی میدانند، ممکن است کسانی نباشند که آن را به واقعیت تبدیل کنند. با این حال، درست مانند اینکه لامپ الکتریکی با بهبود شمع اختراع نشد، مدلهای زبانی بزرگ (LLMs) نیز بعید است به چیزی فراتر از چتباتهای پیشرفته تبدیل شوند. از جمله دیگر مسائل، LLMها هیچ شکلی از تجسم یا تعامل با دنیای فیزیکی ندارند، توانایی استدلال در مورد علت و معلول را ندارند، توانایی محدودی در حفظ زمینه در مکالمات طولانی دارند و در انجام وظایفی که نیاز به درک وابستگیهای بلندمدت یا مدیریت چندین جریان اطلاعات به طور همزمان دارند، با مشکل مواجه هستند.
6- آیندۀ هوش مصنوعی در توسعه بیشتر هوش مصنوعی نیست؛ بلکه در افزایش صداقت است
تنها با ایجاد شفافیت و صداقت در ابزارهای هوش مصنوعی است که میتوان اطمینان حاصل کرد که این ابزارها به ابزارهایی برای ظلم و تبعیض تبدیل نمیشوند. هوش مصنوعی باید موجب تقویت حس انسانیت و یکپارچگی شود.
در نهایت، برای استفادۀ صحیح از پتانسیل هوش مصنوعی، باید از امید واهی و هیاهوی تبلیغاتی دوری کنیم و به دنبال ایجاد یکپارچگی و صداقت در دنیای هوش مصنوعی باشیم. تنها در این صورت است که میتوانیم به درستی از این فناوری بهرهبرداری کنیم و آیندهای انسانمحور بسازیم.