جدیدترین تحولات هوش مصنوعی را در کانال بله هوشیو بخوانید

Filter by دسته‌ها
chatGTP
ابزارهای هوش مصنوعی
اخبار
گزارش خبری
پرامپت‌ نویسی
تیتر یک
چندرسانه ای
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
دانش روز
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
خطرات هوش مصنوعی
دیتاست
مدل‌های بنیادی
رویدادها
جیتکس
کاربردهای هوش مصنوعی
کتابخانه
اشخاص
شرکت‌های هوش مصنوعی
محصولات و مدل‌های هوش مصنوعی
مفاهیم
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
مقاله
پیاده‌سازی هوش مصنوعی
گزارش
مصاحبه
هوش مصنوعی در عمل
 در جست‌وجوی روحی در ماشین

ویژه‌نامه هوش مصنوعی ساینتیفیک امریکن

در جست‌وجوی روحی در ماشین

زمان مطالعه: 7 دقیقه

نشانه‌های هوش جامع مصنوعی روزبه‌روز پررنگ‌تر می‌شوند. اما آیا می‌توان بر سر تعریف آن به توافق رسید؟

برای شرکت‌هایی مانند OpenAI که ChatGPT را ساخته، هوش جامع مصنوعی یا AGI هدف نهایی پژوهش‌های یادگیری ماشین و هوش مصنوعی است. اما معیار یک ماشین هوشمند جامع چیست؟ در سال ۱۹۷۰، دانشمند کامپیوتر «ماروین مینسکی» (Marvin Minsky) پیش‌بینی کرد که ماشین‌های درحال‌توسعه به‌زودی «شکسپیر می‌خوانند، ماشین را روغن‌کاری می‌کنند، در سیاست اداری شرکت می‌کنند، شوخی و دعوا می‌کنند.» سال‌ها بعد «آزمون قهوه» که اغلب به استیو جابز، بنیان‌گذار اپل نسبت داده می‌شود؛ عنوان کرد که AGI زمانی محقق می‌شود که ماشینی بتواند به خانه یک غریبه برود و یک قهوه درست کند.

گزارش حاضر در «ویژه‌نامه هوش مصنوعی ساینتیفیک امریکن» منتشر و در «رسانه تخصصی هوش مصنوعی هوشیو» به زبان فارسی نیز ترجمه شده و در دسترس مخاطبان این حوزه قرار گرفته است.

جنگِ تعاریف در تالارهای علم و اخلاق

هنوز کمتر کسی بر سر تعریف AGI توافق دارد، چه رسد به دستیابی به آن. متخصصان کامپیوتر و علوم شناختی و دیگران در زمینه سیاست و اخلاق، اغلب درک متمایز خود را از این مفهوم دارند (و نظرات متفاوتی در مورد پیامدها یا امکان‌پذیری آن دارند). بدون اجماع، تفسیر توانایی‌های بالقوه AGI یا ادعاهای مربوط به خطرات و مزایای آن می‌تواند دشوار باشد. در همین حال، این اصطلاح مکرراً در رسانه‌های مطبوعاتی، مصاحبه‌ها و مقالات علوم کامپیوتر ظاهر می‌شود. محققان مایکروسافت در سال ۲۰۲۳ اعلام کردند که GPT-4 «جرقه‌های AGI» را نشان می‌دهد. در پایان ماه می ۲۰۲۴ نیز OpenAI تأیید کرد که در حال آموزش نسل بعدی مدل یادگیری ماشین خود است که دارای «سطح بعدی قابلیت‌ها» در «مسیری به‌سوی AGI» خواهد بود. برخی از دانشمندان برجسته کامپیوتر نیز استدلال کرده‌اند که به کمک مدل‌های زبانی بزرگ مولد متن، چنین چیزی محقق شده است.

برای دانستن چگونه صحبت‌کردن در مورد AGI، آزمایش AGI و مدیریت امکان AGI، باید درک بهتری از آنچه در واقع توصیف می‌کند، به دست آوریم.

بازگشت به هدف اصلی یا ترفند بازاریابی؟

«ملانی میچل» (Melanie Mitchell)، استاد و دانشمند کامپیوتر مؤسسه Sante Fe، می‌گوید: «هوش جامع مصنوعی اکنون به اصطلاحی محبوب میان دانشمندان کامپیوتر تبدیل شده درحالی‌که در اواخر دهه ۱۹۹۰ و اوایل دهه ۲۰۰۰ از آنچه که به نظرشان محدودشدن حوزه‌شان تلقی می‌شد، کلافه شده بودند.» این امر نیز واکنشی به پروژه‌هایی مانند Deep Blue، سیستم شطرنج‌بازی بود که استاد بزرگ گری کاسپارف و سایر قهرمانان را شکست داد. برخی از محققان هوش مصنوعی احساس می‌کردند که همکارانشان بیش از حد بر آموزش کامپیوترها برای انجام تکالیف واحد مانند بازی‌ها تمرکز کرده‌اند و هدف اصلی؛ یعنی ماشین‌هایی با توانایی‌های گسترده و شبیه به انسان را فراموش کرده‌اند. میچل عنوان می‌کند که: «AGI برای بازگشت به آن هدف اصلی مورداستفاده قرار گرفت» که به‌نوعی یک بازتعریف بود.

اما از منظری دیگر و طبق گفته «جوانا بریسون» (Joanna Bryson)، استاد اخلاق و فناوری در مؤسسه Hertie آلمان که در آن زمان در پژوهش‌های هوش مصنوعی فعالیت داشت؛ «AGI تحقیرآمیز بود». او معتقد است که این اصطلاح به طور خودسرانه پژوهش‌های هوش مصنوعی را به دو گروه از دانشمندان کامپیوتر تقسیم کرد. دسته اول کسانی بودند که به طور معناداری هدف خود را AGI قرار دادند و آشکارا در جست‌وجوی سیستمی بودند که بتواند هر کاری که انسان انجام می‌دهد را انجام دهد. دسته دوم نیز فرض می‌شد در اهداف محدودتر و بنابراین بی‌اهمیت‌تر، وقت خود را تلف می‌کنند. (هرچند بریسون تأکید می‌کند که بسیاری از این اهداف «محدود»، مانند آموزش کامپیوتر برای بازی کردن بازی‌ها، بعداً به پیشرفت هوش ماشینی کمک کرد.)

محققان هوش مصنوعی وقتی در مورد هوش و نحوه اندازه‌گیری آن در ماشین‌ها صحبت می‌کنند، اغلب «بیش از حد مطمئن» هستند.

فاکتور g و توهمِ سنجشِ هوش

تعاریف دیگر AGI نیز به همان اندازه گسترده و ناقص به نظر می‌رسند. در ساده‌ترین حالت، نشان‌دهنده از ماشینی است که هوش آن برابر یا فراتر از انسان است. اما به گفته «گری لوپیان» (Gary Lupyan)، دانشمند علوم شناختی و استاد روان‌شناسی دانشگاه Wisconsin–Madison، خود «هوش» مفهومی دشوار برای تعریف یا کمی‌سازی است و «هوش جامع» نیز پیچیده‌تر است. از نظر او، محققان هوش مصنوعی وقتی در مورد هوش و نحوه اندازه‌گیری آن در ماشین‌ها صحبت می‌کنند، اغلب «بیش از حد مطمئن» هستند.

دانشمندان علوم شناختی بیش از یک قرن است که تلاش می‌کنند تا اجزای اساسی هوش انسانی را شناسایی کنند. به‌طورکلی پذیرفته شده است که افرادی که در یک مجموعه از پرسش‌های شناختی عملکرد خوبی دارند، نشان می‌دهند که احتمالاً در سایر پرسش‌ها هم نیز عملکرد خوبی داشته باشند. بسیاری این عامل را به یک جنبه قابل‌اندازه‌گیری و ناشناخته ذهن انسان که اغلب به‌عنوان «فاکتور g» نامیده می‌شود، نسبت داده‌اند. اما لوپیان و بسیاری دیگر مخالفت این ایده هستند و استدلال می‌کنند که آزمون‌های هوش و سایر ارزیابی‌هایی که برای کمی‌سازی هوش عمومی استفاده می‌شوند، تنها واکنش‌هایی از ارزش‌های فرهنگی و شرایط محیطی فعلی هستند. لوپیان در دفاع از ادعای خود استدلال می‌کند که دانش‌آموزان ابتدایی که اصول برنامه‌نویسی کامپیوتر را یاد می‌گیرند و دانش‌آموزان دبیرستانی که کلاس‌های حساب دیفرانسیل را می‌گذرانند، به دستاوردهایی رسیده‌اند که «کاملاً خارج از محدوده امکان‌پذیری برای مردم حتی چند صد سال پیش بوده است». اما این به معنای باهوش‌تر بودن کودکان امروز نسبت به بزرگسالان گذشته نیست؛ بلکه انسان‌ها به‌عنوان یک گونه دانش بیشتری اندوخته‌اند و اولویت‌های یادگیری خود را از وظایف مرتبط با رشد و تهیه غذا، به سمت توانایی‌های محاسباتی تغییر داده‌اند.

به عقیده «آلیسون گوپنیک» (Alison Gopnik) استاد روان‌شناسی در دانشگاه برکلی کالیفرنیا، «چیزی به نام هوش جامع، چه مصنوعی چه طبیعی وجود ندارد.» انواع مختلف مشکلات نیازمند توانایی‌های شناختی متفاوتی هستند و او یادآوری می‌کند که هیچ نوعی از هوشی نمی‌تواند‌ همه چیز را انجام دهد. به گفته گوپنیک در واقع توانایی‌های شناختی مختلف می‌توانند با یکدیگر در تضاد باشند. برای مثال کودکان خردسال برای انعطاف‌پذیری و یادگیری سریع آماده هستند که به ذهن آن‌ها اجازه می‌دهد به‌سرعت اتصالات جدیدی ایجاد کند؛ اما به دلیل رشد و تغییر سریع ذهنشان، در برنامه‌ریزی بلندمدت عملکرد خوبی ندارند. اصول و محدودیت‌های مشابهی نیز برای ماشین‌ها اعمال می‌شود و از نظر گوپنیک «AGI کمی بیشتر از یک شعار بازاریابی خیلی خوب» است.

پارادوکس موروویچ، چرا نوابغِ دیجیتال در تاشدن لباس درمی‌مانند؟

«پارادوکس موروویچ» (Moravec’s Paradox) که برای اولین‌بار در سال ۱۹۸۸ معرفی شد، بیان می‌کند که آنچه برای انسان‌ها آسان است برای ماشین‌ها دشوار است و آنچه انسان‌ها چالش‌برانگیز می‌یابند اغلب برای کامپیوترها آسان‌تر است. بسیاری از سیستم‌های کامپیوتری می‌توانند عملیات ریاضی پیچیده‌ای را انجام دهند، اما نسبتاً دشوار است که بتوانید ربات‌ها وادار به تا کردن لباس یا چرخاندن دستگیره در کنید. به گفته میچل هنگامی که مشخص شد ماشین‌ها همچنان در انجام کارهای عملی و در تعامل با اشیا با مشکل مواجه خواهند بود، تعاریف رایج AGI ارتباط خود را با دنیای فیزیکی از دست دادند. در این موقعیت AGI به معنای تسلط بر وظایف شناختی و سپس آنچه که یک انسان می‌تواند درحالی‌که به اینترنت متصل است انجام دهد، تغییر پیدا کرد.

OpenAI هوش جامع مصنوعی را به‌عنوان «سیستم‌های بسیار خودمختار که در اکثر کارهایی که ارزش اقتصادی دارند، از انسان‌ها عملکرد بهتری دارند» تعریف می‌کند. بااین‌حال سم آلتمن در برخی از بیانیه‌های عمومی، بینشی بازتر ارائه کرده است. او در مصاحبه‌ای در سال ۲۰۲۴ گفت: «من دیگر فکر نمی‌کنم AGI مانند یک لحظه در زمان باشد. شما و من احتمالاً در مورد ماه یا حتی سالی که می‌گوییم این AGI است؛ هم‌نظر نخواهیم بود.»

از هوش نوظهور تا قلمرو ابرانسان

داوران علمی پیشرفت‌های هوش مصنوعی نیز به‌جای پذیرش ابهام، به جزئیات پرداخته‌اند. در یک مقاله پیش‌انتشار در سال ۲۰۲۳، محققان Google DeepMind شش سطح هوش را پیشنهاد کردند که از طریق آن می‌توان سیستم‌های کامپیوتری مختلف را رتبه‌بندی کرد. سیستم‌هایی که از «بدون هوش مصنوعی» (No AI) شروع می‌شوند و با «نوظهور» (Emerging)، «کارآمد» (Competent)، «متخصص» (Expert)، «خبره» (Virtuoso) و «ابرانسان» (Superhuman) تکمیل می‌شوند.

آن‌ها همچنین ماشین‌ها را به انواع محدود (وظیفه‌محوور) یا عمومی تقسیم کردند. «مریدیث رینگل موریس» (Meredith Ringel Morris) نویسنده اصلی این مقاله می‌گوید: «AGI اغلب مفهومی بسیار بحث‌برانگیز است و فکر می‌کنم مردم نیز از این تعریف عملی قدردانی می‌کنند. برای ساختاربندی این ویژگی‌ها، موریس و همکاران او به طور خاص بر روی توضیح آنچه که یک هوش مصنوعی می‌تواند انجام دهد تمرکز کردند، نه اینکه چگونه وظایف را انجام می‌دهد. سؤالات علمی مهمی درباره اینکه LLMها و سایر سیستم‌های هوش مصنوعی خروجی‌های خود را چگونه به دست می‌آورند و آیا واقعاً هر چیزی شبیه به انسان را تکرار می‌کنند، وجود دارد. اما موریس می‌گوید، او و همکارانش او می‌خواستند «اهمیت عملی آنچه که در حال اتفاق‌افتادن است را درک کنند.»

محققان هوش مصنوعی وقتی در مورد هوش و نحوه اندازه‌گیری آن در ماشین‌ها صحبت می‌کنند، اغلب «بیش از حد مطمئن» هستند.
آلیسون گوپنیک – دانشگاه برکلی کالیفرنیا

بر اساس طرح DeepMind، تعداد کمی از مدل‌های زبان بزرگ، از جمله ChatGPT و Gemini؛ واجد شرایط «هوش مصنوعی نوظهور» هستند؛ زیرا آن‌ها «برابر یا کمی بهتر از یک انسان ناآشنا، در طیف وسیعی از وظایف غیرفیزیکی، از جمله وظایف فراشناختی مانند یادگیری مهارت‌های جدید» هستند. اما حتی همین ساختاربندی دقیق نیز پرسش‌های بدون پاسخی را به همراه دارد. این مقاله مشخص نمی‌کند که چه وظایفی باید برای ارزیابی توانایی‌های یک سیستم هوش مصنوعی استفاده شود یا تعداد وظایفی که یک سیستم محدود را از یک سیستم عمومی متمایز می‌کند چیست و همچنین روشی برای ایجاد معیارهای مقایسه‌ای در سطح مهارت انسان را ارائه نمی‌دهد. به گفته موریس تعیین وظایف مناسب برای مقایسه مهارت‌های ماشین و انسان «یک حوزه پژوهشی فعال» است.

دیکتاتوری واژگان؛ اگر نام دیگری بر آن می‌گذاشتیم…

بااین‌حال، برخی دانشمندان می‌گویند پاسخ‌دادن به این پرسش‌ها و شناسایی آزمون‌های مناسب، تنها راه ارزیابی این است که آیا یک ماشین هوشمند است یا خیر. در اینجا نیز روش‌های فعلی ممکن است ناکافی باشند و به گفته میچل معیارهای هوش مصنوعی محبوب مانند آزمون SAT، آزمون وکالت یا سایر آزمون‌های استاندارد انسانی، تفاوتی بین یک هوش مصنوعی که داده‌های آموزشی را تکرار می‌کند و سیستم دیگری که یادگیری انعطاف‌پذیر و توانایی را نشان می‌دهد، قائل نمی‌شوند. میچل توضیح می‌دهد که: «صرف آزمون دادن یک ماشین به این شکل لزوماً به این معنی نیست که قادر خواهد بود خارج از این چارچوب، کارهایی را انجام دهد که انسان‌ها اگر نمره مشابهی بگیرند می‌توانند انجام دهند.»

همان‌طور که دولت‌ها در تلاش برای تنظیم‌گری هوش مصنوعی هستند، برخی از استراتژی‌ها و سیاست‌های رسمی آن‌ها نیز بهAGI  اشاره دارد. تعریف‌های متغیر می‌تواند نحوه اجرای این سیاست‌ها تغییر دهد. «پئی وانگ» (Pei Wang) دانشمند کامپیوتر دانشگاه Temple می‌گوید: «اگر سعی کنید قانون‌گذاری را به نحوی انجام دهید که تمامی جنبه‌های AGI را پوشش دهد؛ این کار صرفاً غیرممکن خواهد بود.» نتایج واقعی ممکن است با درک اصطلاحات تغییر کند به گفته وانگ همه این موارد پیامدهای بحرانی برای ایمنی و مدیریت ریسک هوش مصنوعی دارند.

درس کلیدی‌ای که می‌توان ظهور LLMها گرفت شاید این باشد که زبان قدرتمند است. با متن کافی، می‌توانیم مدل‌های کامپیوتری را آموزش دهیم که برای برخی، مانند نگاه‌کردن به ماشینی با هوش برابر با انسان به نظر می‌رسد؛ اما کلماتی که برای این پیشرفت انتخاب می‌کنیم اهمیت دارند.

به گفته میچل: «این اصطلاحاتی ما استفاده می‌کنیم، بر نحوه فکرکردن در مورد این سیستم‌ها اثر می‌گذارد» در کارگاه مهم کالج Dartmouth در سال ۱۹۵۶ که آغازی بر تحقیقات هوش مصنوعی بود؛ دانشمندان در مورد نام‌گذاری کار خود بحث کردند. برخی «هوش مصنوعی» را ترجیح می‌دادند و برخی «پردازش اطلاعات پیچیده» را انتخاب کردند. شاید اگر به‌جای AGI، نامی مانند «پردازش اطلاعات پیچیده پیشرفته» را به آن نسبت می‌دادیم؛ کمی آهسته‌تر به انسان‌نمایی ماشین‌ها می‌پرداختیم یا از قیامت هوش مصنوعی می‌ترسیدیم و شاید بر سر معنای آن توافق داشتیم.

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها

در جریان مهم‌ترین اتفاقات AI بمانید

هر هفته، خلاصه‌ای از اخبار، تحلیل‌ها و رویدادهای هوش مصنوعی را در ایمیل‌تان دریافت کنید.

[wpforms id="48325"]