
موج بعدی هوش مصنوعی ازراهرسیده است:
عاملهای خودمختار هوش مصنوعی شگفتانگیز و ترسناک
تبلیغات بیوقفه و هیجان پیرامون هوش مصنوعی، تشخیص اطلاعات واقعی از هیاهو را دشوار کرده است؛ بنابراین، اگر صحبتهای اخیر درباره عاملهای خودمختار هوش مصنوعی (autonomous AI agents) را نادیده گرفتهاید، قابلدرک است، اما بهتر است که این کار را نکنید. در واقع اهمیت عاملهای خودمختار هوش مصنوعی ممکن است حتی از این همه هیاهو هم فراتر باشد.
یک عامل خودمختار هوش مصنوعی میتواند با محیط تعامل کند، تصمیم بگیرد، اقدام کند و از فرایند یاد بگیرد. این موضوع یک تغییر اساسی در نحوه استفاده از هوش مصنوعی ایجاد میکند و در نتیجه، فرصتها و همچنین ریسکهای جدیدی را به همراه دارد.
حرف P در GPT
تا به امروز، ابزارهای هوش مصنوعی مولد که عمدتاً تحت نظارت انسان قرار دارند، بر اساس پیش آموزش (Pretraining – همان حرف P در GPT) روی حجم عظیمی از دادهها مانند مدلهای زبانی بزرگ (LLMs) یا سایر منابع داده تعریفشده طراحی شدهاند. سپس این ابزارها به ورودیها یا درخواستهای کاربران (مانند یک سؤال یا دستور) پاسخ میدهند.
این روش توانسته به طور چشمگیری پاسخهایی شبیه به انسان ارائه دهد، درست مثل یک نوزاد که بدون درک واقعی، صداها یا کلماتی را تقلید میکند. این موضوع جالب است، اما بعید به نظر میرسد که چنین سیستمی بتواند شاهکاری مانند اصول ریاضی نیوتن یا یک سمفونی از بتهوون خلق کند. پس آیا این ابزارهای مولد واقعاً بهعنوان موجوداتی خلاق و مستقل عمل میکنند؟ احتمالاً نه اما این وضعیت ممکن است در حال تغییر باشد.
یک رویکرد جدید به هوش مصنوعی امکان میدهد که به طور مستقیمتر و خودمختارتر با دادهها تعامل کند و بسیار شبیه به آنچه انسانها انجام میدهند، بهصورت پویا واکنش نشان دهد. این فناوری بر پایه عاملهای خودمختار هوش مصنوعی بنا شده است، پدیدهای که بیل گیتس معتقد است صنعت نرمافزار را زیر و رو خواهد کرد و بزرگترین انقلاب در محاسبات را از زمان گذار از تایپ دستورات به ضربه زدن روی آیکونها، به همراه خواهد داشت. در واقع شاید این گفته یک بیان ملایم یا کمگویی (درباره آنچه که در پیش است) باشد.
عاملهای هوش مصنوعی
عاملهای هوش مصنوعی برای تصمیمگیری بدون دخالت انسان طراحی شدهاند تا وظایف از پیش تعریفشده (فعلاً) را انجام دهند. این عاملها میتوانند به دنیای بیرون دسترسی پیدا کنند، دادههایی را که قبلاً با آنها مواجه نشدهاند پیدا کنند، آنها را تحلیل کنند و سپس اقدام کنند. بسیار شبیهتر به تعامل انسان با محیط و کمتر وابسته به دنیای دادههای ثابت یک برنامه شطرنج یا یک چتبات که فقط به دانش از پیشآموختهشدهاش متکی است. عملکرد این عاملها عالی به نظر میرسد، اما چه چیزی ممکن است اشتباه پیش برود؟
این یک گام بزرگ رو به جلو است. ما دیگر صرفاً یک رویکرد آماری هوشمند برای تقلید از بیان انسانی نداریم، بلکه سیستمی داریم که میتواند محرکهای خارجی ناشناخته را پردازش کند و بدون نیاز به پیشآموزش یا بازآموزی، اقدامات مستقل انجام دهد. در واقع ما در حال حذف نقش واسطهای خود در ایجاد و هدایت جهان مفهومی و تصمیمگیری هوش مصنوعی هستیم.
این همان نکتهای است که هم فرصت و هم چالش را ایجاد میکند. میتوان گفت که نوزاد هوش مصنوعی نهتنها در حال برداشتن چند قدم اولیه است، بلکه ممکن است در حال رانندگی با ماشین جدید شما، با صدای بلند موسیقی و یک بطری در دست باشد!
از جمله مزایای این فناوری میتوان به نیاز کمتر به آموزش و نظارت خاص، مقیاسپذیری (که تنها محدود به منابع پردازشی است) و حذف واسطه انسانی برای اجرای حجم گستردهای از وظایف به طور مستقل اشاره کرد. در نهایت، این عاملها همانطور که از نامشان پیداست، دارای عاملیت هستند، یعنی توانایی تصمیمگیری، انتخاب و البته اشتباهکردن دارند.
چه چیزی ممکن است اشتباه پیش برود؟
برخلاف انسان، وقتی یک عامل هوش مصنوعی مرتکب خطا شود، این اشتباه میتواند به طور لحظهای و تقریباً بینهایت تکثیر شده و گسترش یابد. این عاملها همچنین هدف جذابی برای هکرها هستند.
سناریوهای فاجعهباری مانند یک عامل خودمختار که بهاشتباه موج عظیمی از معاملات مالی را آغاز میکند یا حتی به طور ناخواسته یک حمله نظامی را فعال میکند، کاملاً قابل تصورند. وقتی صحبت از تصمیماتی با پیامدهای بالقوه فاجعهبار به میان میآید، نظارت انسانی اهمیت بیشتری پیدا میکند. در واقع اگرچه نظارت انسانی بینقص نیست، اما دستکم بسیاری از ما احساس آرامش نسبی داریم که یک متخصص انسانی آماده کنترل اوضاع است.
خطرات کمتر چشمگیر، اما همچنان قابلتوجهی نیز وجود دارد، بهویژه در حوزههای حقوقی و تطبیق با مقررات که میتواند برای کسبوکارها چالشبرانگیز باشد. شرکتها به طور فزایندهای از ابزارهای مبتنی بر هوش مصنوعی در تمام مراحل مدیریت از انتخاب و مصاحبه با نامزدهای شغلی گرفته تا ارزیابی عملکرد، افزایش حقوق، ارتقا و حتی اخراج منابع انسانی استفاده میکنند. عاملهای هوش مصنوعی در حال ورود گسترده به این فرایندها هستند.
تأمینکنندگان این فناوریها اغلب آنها را بهعنوان ابزاری برای بهبود کیفیت تصمیمگیریهای مهم منابع انسانی معرفی میکنند، اما اشتباهات ظریفی در طراحی یا اجرای این سیستمها میتواند به نتایج ناعادلانه منجر شود. این پدیده نام مشخصی به اسم تعصب الگوریتمی (Algorithmic Bias) دارد.
در همین حال، بسیاری از ایالتها در حال تصویب قوانینی هستند که توسعهدهندگان و کاربران این ابزارها را در صورت استفاده از سیستمهای ناعادلانه مجازات میکنند. طبیعتاً در این زمینه شکایتهای حقوقی نیز در راه خواهند بود.
کسبوکار پرمخاطره
شکی نیست که عاملهای هوش مصنوعی فرصت بزرگی برای افزایش بهرهوری از طریق خودکارسازی وظایف روزمره و آزادسازی انسانها برای کارهای خلاقانهتر و حل مسئله فراهم میکنند، اما به همان اندازه، خطرات آنها نیز غیر قابل انکار است.
هرچند رها کردن نظارت و کنترل در مورد بچهها برای مقطع خاصی ضروری باشد، اما این قیاس در مورد خودمختاری هوش مصنوعی چندان دقیق نیست. فعلاً، در حالی که با اشتیاق چرخهای کمکی این فناوری را باز میکنیم، باید مراقب باشیم که این هیجان را با احتیاط منطقی متعادل کنیم تا از برخوردهای فاجعهبار جلوگیری شود.