Filter by دسته‌ها
chatGTP
ابزارهای هوش مصنوعی
اخبار
گزارش خبری
پرامپت‌ نویسی
تیتر یک
چندرسانه ای
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
دانش روز
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
خطرات هوش مصنوعی
دیتاست
مدل‌های بنیادی
رویدادها
جیتکس
کاربردهای هوش مصنوعی
کتابخانه
اشخاص
شرکت‌های هوش مصنوعی
محصولات و مدل‌های هوش مصنوعی
مفاهیم
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
مقاله
پیاده‌سازی هوش مصنوعی
گزارش
مصاحبه
هوش مصنوعی در عمل
 ماشین‌های اینشتین

راهنمای کلیدی نیو ساینتیست: انقلاب هوش مصنوعی

ماشین‌های اینشتین

زمان مطالعه: 7 دقیقه

الگوریتم‌های هوشمند تنها ابزارهای کارآمد برای حل مسائل عملی نیستند. هوش مصنوعی با بررسی دقیق داده‌های اخترفیزیکی می‌تواند معادلات زیربنایی که رفتار کهکشان‌ها را توصیف می‌کنند، شناسایی کند. فیزیک‌دانان نیز در تلاش هستند تا بفهمند که چگونه به این «نظریه‌پردازان ماشینی» توانایی یافتن قوانین عمیق‌تر طبیعت را بدهند. فیزیک‌دانان نظری با آموزش الگوریتم‌های یادگیری عمیق برای صحبت‌کردن به زبان خودشان، ممکن است همکاران نهایی خود را پیدا کرده باشند.

دانش داده‌محور در قرن شانزدهم با مشاهدات دقیق «تیکو براهه» (Tycho Brahe) ستاره‌شناس دانمارکی، از حرکات سیارات و ستارگان آغاز شد. «یوهانس کپلر» (Johannes Kepler) با بررسی دقیق یادداشت‌های براهه، الگوهای زیربنایی در داده‌ها را شناسایی کرد و به سه قانون ساده رسید که حرکت سیارات را توصیف می‌کردند.

گزارش حاضر در «راهنمای کلیدی نیو ساینتیست: انقلاب هوش مصنوعی» منتشر و در «رسانه تخصصی هوش مصنوعی هوشیو» به زبان فارسی نیز ترجمه شده و در دسترس مخاطبان این حوزه قرار گرفته است.

استراتژی کپلر و موفقیت‌های ریاضی

استراتژی کپلر آزمون‌وخطا بود. او با مشقت فراوان مدل منظومه شمسی را تطبیق داد. سرانجام، او یک هارمونی ریاضی دقیق بین مسیر سیارات و زمانی که طول می‌کشید تا به دور خورشید بچرخند را کشف کرد. این یک موفقیت بزرگ بود که معادلات ریاضی را در قلب درک ما از جهان قرار داد؛ جایی که تاکنون باقی‌مانده‌اند.

«گالیلئو گالیله» (Galileo Galilei) دانشمند برجسته هم‌عصر کپلر نیز نوشت: «کتاب بزرگ طبیعت به زبان ریاضی نوشته شده است.» این روزها، این پرسش که آیا جهان ذاتاً ریاضیاتی است یا الگوهای ریاضی چیزی هستند که ما بر آن تحمیل می‌کنیم، هنوز حل‌نشده باقی‌مانده است. اما باتوجه‌به موفقیت شگفت‌انگیز ریاضیات در بیان آنچه که حقایق انتزاعی به نظر می‌رسند در قالب معادلات ساده؛ منطقی است که فیزیک‌دانان مدرن تلاش کنند به هوش مصنوعی بیاموزند که کاری مشابه انجام دهد.

رگرسیون نمادین: یک روش نوین

این تفکر پشت «رگرسیون نمادین» (Symbolic Regression) بود؛ روشی که در ابتدا در دهه ۱۹۷۰ توسط «پاتریک لانگلی» (Patrick Langley) که آن زمان در دانشگاه Carnegie Mellon بود، توسعه یافت و بعداً توسط دیگران از جمله «هاد لیپسون» (Hod Lipson) و «مایکل اشمیت» (Michael Schmidt) که آن زمان در دانشگاه Cornell بودند، احیا و تنظیم شد. این روش با اجرای قاعده‌مند معادلاتی کار می‌کند که شامل نمادها یا عملیات ریاضی مختلف مانند جمع یا ضرب و ترکیبی از متغیرهای فیزیکی مانند موقعیت یا سرعت هستند. اگر یکی از این معادلات با داده‌ها، مثلاً مشاهدات مسیر حرکت مداری یک سیاره انطباق نزدیکی داشته باشد؛ پاداش می‌گیرد و سپس به‌اصطلاح فنی جهش می‌یابد. سپس عبارت جدید آزمایش می‌شود و با نمونه پیشین خود مقایسه می‌گردد و این روند ادامه می‌یابد. به‌این‌ترتیب، معادلات ضعیف‌تر به‌تدریج در فرایندی شبیه به انتخاب طبیعی حذف می‌شوند. «شرلی هو» (Shirley Ho) از مؤسسه Flatiron نیویورک می‌گوید: «شبکه قادر است خودش قانون را بدون دخالت ما کشف کند.»

چالش‌های رگرسیون نمادین در داده‌های بزرگ

مشکل اینجاست که رگرسیون نمادین در یافتن معادلات در مجموعه‌داده‌های با ابعاد بالاتر؛ یعنی آن‌هایی که حاوی متغیرهای فیزیکی ممکن بسیار زیادی هستند، دچار مشکل می‌شود. اتفاقاً این داده‌ها جزء اصلی کار بسیاری از فیزیک‌دانان امروزی هستند. برای مثال، اخترفیزیک‌دانان و کیهان‌شناسان از سیل داده‌های تلسکوپ‌های قدرتمند جدید مانند تلسکوپ فضایی جیمز وب و رصدخانه فضایی گایا (متعلق به آژانس فضایی اروپا) لذت می‌برند. اما این حجم داده‌ها برای رگرسیون نمادین یک مشکل است زیرا وقتی متغیرهای بیشتری دارید، تعداد معادلات ممکنی که الگوریتم شما باید آزمایش کند به‌شدت افزایش می‌یابد تاحدی‌که حتی برای قدرتمندترین رایانه‌های امروزی هم بیش از حد زیاد است.

ادغام یادگیری عمیق و رگرسیون نمادین

الگوریتم‌های یادگیری عمیق، کار مجموعه‌داده‌های بزرگ را سبک می‌کنند. این امر توضیح می‌دهد که چرا در سال ۲۰۰۰، «مایلز کرانمر» (Miles Cranmer) در دانشگاه پرینستون با همکاری «شرلی هو» تلاش کردند تا مهارت الگویابی یادگیری عمیق و خروجی‌های قابل‌تفسیر رگرسیون نمادین را ترکیب کنند. آن‌ها داده‌های واقعی ناسا از سیارات و قمرهای منظومه شمسی را به یک شبکه عصبی یادگیری عمیق دادند (همان نوع چیزهایی که کپلر با آن‌ها کار می‌کرد) و پس از اینکه شبکه عصبی الگوها را در داده‌ها پیدا کرد، ساختارش را قفل کرد. سپس مجموعه‌ای از اعداد به شبکه عصبی داده شد و خروجی‌ها یک مجموعه‌داده جدید را تشکیل دادند؛ مجموعه‌ای که منعکس‌کننده این الگوها و برای رگرسیون نمادین مناسب بود و به آن اجازه می‌داد معادلاتی را پیدا کند که با داده‌ها منطبق باشند. الگوریتم رگرسیون نمادین این پژوهش که به نام PySR شناخته می‌شود، همان‌طور که انتظار می‌رفت قانون گرانش نیوتن را با استفاده از چیزی کمی فراتر از داده‌های خام، «بازکشف» کرد.

اکتشافات جدید در اخترفیزیک

اما این پژوهش فقط یک اثبات مفهوم (Proof of principle) بود. مدل PySR که توسط کرانمر و بسیاری دیگر بر روی انبوه داده‌های جدید اخترفیزیکی اعمال شده، هم‌اکنون برای کشف معادلاتی استفاده می‌شود که ویژگی‌های متنوع و مرتبط کیهان را توصیف می‌کنند. از جرم سیاه‌چاله‌های استنتاج‌شده از آشکارسازی امواج گرانشی گرفته تا ویژگی‌های خلأ کیهانی (Cosmic voids)، رگرسیون نمادین راه‌های جدیدی را به اخترفیزیک‌دانان برای یافتن نظم ریاضی در جهان ارائه می‌دهد. «استیو برانتون» (Steve Brunton) از دانشگاه واشنگتن که در سال ۲۰۱۶ یکی دیگر از الگوریتم‌های محبوب رگرسیون نمادین به نام SINDy را مشترکاً خلق کرد، می‌گوید: «آن‌ها در واقع دارند اکتشافات کاملاً جدیدی را صرفاً از روی داده‌ها هدایت می‌کنند که واقعاً کار زیبایی است.»

کشف معادلات جدید در کیهان‌شناسی

ماده تاریک را در نظر بگیرید؛ منبع مرموز گرانشی که کهکشان‌ها را از خطر ازهم‌پاشیدن حفظ می‌کند و ۸۰ درصد از کل ماده جهان را تشکیل می‌دهد. در کیهان‌شناسی، عدم وجود ماده تاریک «خلأ» (Void) نامیده می‌شود و توزیع و ویژگی‌های خلأ می‌تواند با ثابت‌های جهانی جهان مرتبط باشد. اما یافتن این معادلات دشوار است؛ زیرا خلأهای بسیاری وجود دارد و هر کدام به طور متفاوتی توصیف می‌شوند، بنابراین متغیرهای زیادی وجود دارد. در می ۲۰۲۱، کرانمر به همراه هو و سایر همکاران، از یادگیری عمیق در کنار PySR استفاده کردند تا رابطه جدیدی بین اندازه و شکل حفره‌های کیهانی و اینکه چه کسری از کل انرژی جهان به‌صورت جرم موجود است را کشف کنند.

سپس، در مارس ۲۰۲۲، «هلن شائو» (Helen Shao) در دانشگاه پرینستون و همکارانش از PySR برای کشف معادله‌ای استفاده کردند که جرم یک «زیرهاله» (Sub halo) به‌عنوان توده‌ای از ماده تاریک را از روی سایر ویژگی‌ها، مانند سرعت تشکیل ستاره‌ها در کهکشان‌ها پیش‌بینی می‌کند. به طور شگفت‌انگیزی، این معادله تقریباً در تمام کهکشان‌ها در تاریخ جهان به طور دقیقی کار می‌کرد. «فرانسیسکو ویاسکوسا-ناوارو» (Francisco Villaescusa-Navarro) از بنیاد Simons که یکی از نویسندگان همکار این پژوهش است می‌گوید: «این نتیجه تماشایی بود و احتمالاً به این دلیل است که [شبکه عصبی] رابطه واقعاً بنیادینی پیدا کرده است.»

اهمیت روابط بنیادین در فیزیک

روابط بنیادین (Fundamental Relations) دقیقاً همان چیزی هستند که فیزیک‌دانان به دنبال آن هستند زیرا قابل‌تعمیم هستند. به این معنی که می‌توانند سیستم‌های فیزیکی غیرمعمول را به همان خوبی مجموعه‌داده اصلی که رابطه از آن کشف شده است، توصیف کنند و به همین دلیل، نشانه‌ای از درک و فهم هستند. برای مثال، قانون دوم حرکت نیوتن که می‌گوید نیروی وارد بر یک جسم برابر است با جرم جسم ضرب در شتاب آن (F=ma) است. این قانون برای یک سیب در حال سقوط از روی درخت همان‌قدر خوب کار می‌کند که برای فرود موشک روی ماه صادق است.

برنامه‌های رگرسیون نمادین تمایل دارند معادلاتی را تولید کنند که نسبت به شبکه‌های عصبی یادگیری عمیق که به‌تنهایی به کار گرفته می‌شوند، تعمیم‌پذیرتر هستند؛ شبکه‌هایی که اغلب وقتی در سناریوهای خارج از محدوده امن خود اعمال می‌شوند، خروجی‌های بی‌معنی تحویل می‌دهند. شائو می‌گوید: «آن‌ها [برنامه‌های رگرسیون نمادین] مشکل تمایل به توجه‌کردن به جزئیات کوچک یک مجموعه‌داده خاص را ندارند.»

محدودیت‌ها و چالش‌های فعلی

بااین‌وجود، تمام موفقیت‌های PySR تاکنون معادلات تجربی بوده‌اند. به‌عبارت‌دیگر، آن‌ها توصیفی هستند و در بازتولید داده‌های آزمایشگاهی خوب عمل می‌کنند، نه اینکه مستقیماً یک توضیح نظری یا آن «چرایی» عمیق‌تری را که فیزیک‌دانان می‌خواهند، ارائه دهند. برای مثال، قانون کپلر یک معادله تجربی است. این قانون با دفترچه‌های داده‌های براهه به طور شگفت‌انگیزی منطبق می‌شود؛ بااین‌حال کپلر نمی‌دانست چرا چنین افتاده است. مدتی بعد وقتی نیوتن عمیقاً درباره ماهیت گرانش اندیشید، این قانون به‌عنوان بخشی از قانون گرانش نیوتن معنا پیدا کرد.

می‌دانیم که برازش نمادهای ریاضی بر روی داده‌ها تنها راه برای درک جهان نیست. آلبرت اینشتین از طریق مجموعه‌ای از آزمایش‌های فکری خلاقانه به نظریه نسبیت عام خود رسید؛ نظریه‌ای که جایگزین نیوتن شد و گفت گرانش نتیجه خم‌شدن فضا-زمان توسط جرم است. مشاهداتی مانند حرکت غیرمعمول عطارد در آسمان شب صرفاً نسبیت عام را تأیید کردند؛ نه اینکه الهام‌بخش نظریه باشند. در همین حال، در مکانیک کوانتومی یک معادله تجربی به نام قانون پلانک که تابش تشعشع از اجسام را توصیف می‌کند، پیش‌درآمدی برای بینش‌های عمیق‌تر درباره دنیای میکروسکوپی بود.

آینده رگرسیون نمادین و هوش مصنوعی

کرانمر و هو، معادلات تجربی را بیشتر به‌عنوان پله‌ای به‌سوی حقایق عمیق‌تر می‌بینند تا خود حقایق. آن‌ها حتی تردید دارند که این معادلات جدید را «اکتشاف» بنامند. کرانمر می‌گوید: «ما قطعاً هنوز در آن نقطه نیستیم» و گمان می‌کند که ترکیبی از رگرسیون نمادین و یادگیری عمیق می‌تواند اکتشافات علمی بزرگ مانند اینکه ماده تاریک چیست یا اینکه آیا اصلاً واقعاً وجود دارد یا نه را ظرف یک دهه به ارمغان بیاورد.

از نظر هو ایده اصلی این است که این عبارات نمادین به فیزیک‌دانان جهت می‌دهند و به آن‌ها کمک می‌کنند تا جهش‌های علمی بزرگ‌تری انجام دهند. کرانمر نیز می‌گوید: «وقتی مدل یادگیری عمیق خود را به این زبان بیان می‌کنید، آنگاه بلافاصله می‌توانید ارتباطاتی را با نظریه موجود ببینید.» حداقل فعلاً هنوز دانشمندان نقشی حیاتی و خاصی را در مطالعه این معادلات، درک فرم آن‌ها و نحوه ارتباط آن‌ها با یکدیگر و فیزیک به‌عنوان یک کل ایفا می‌کنند.

آینده‌نگری در مدل‌های هوش مصنوعی

کرانمر و دیگران به این فکر کردند که چگونه می‌توانند مدل‌های هوش مصنوعی‌ای را توسعه دهند که به‌خودی‌خود قادر به یافتن قوانین بنیادین طبیعت باشند. یک استراتژی، تعبیه‌کردن هنجارهای فرهنگی از کتاب راهنمای فیزیک‌دانان است. چیزی که از قبل در PySR و سایر برنامه‌های رگرسیون نمادین ریشه دوانده، تمایل به‌سادگی است. اصلی که قرن‌هاست به‌عنوان «تیغ اوکام» (Occam’s razor) یا همان «اصل اختصار تبیین» محترم شمرده می‌شود؛ یعنی حذف توضیحات بی‌جهت پیچیده یا حذف نمادهای اضافی در معادلات.

در رگرسیون نمادین، معمولاً یک تعادل بین دقت و سادگی وجود دارد. اگر معادلاتی که با استفاده از این روش به دست می‌آورید بسیار پیچیده باشند، اغلب می‌توانید داده‌هایی را که استفاده می‌کنید دقیق‌تر تطبیق دهید، زیرا پیچ‌های تنظیم بیشتری برای دست‌کاری دارید. این حالت «بیش‌برازش» (Overfitting) نامیده می‌شود و خطر اینکه عبارت ریاضی شما در خارج از مجموعه‌داده آزمایشی دقت کمتری داشته باشد را افزایش می‌دهد. به‌عبارت‌دیگر، قابل‌تعمیم نیست.

برانتون می‌گوید با عبارات ساده‌تر، «شانس بسیار بهتری وجود دارد که واقعاً در حال کشف یک سازوکار باشید.» کرانمر گمان می‌کند این تعادل همان دلیلی است که وقتی PySR را روی داده‌های مداری ناسا اعمال کرد، به‌جای معادلات نسبیت عام اینشتین به قانون گرانش نیوتن رسید.

نقش تقارن و زیبایی در فیزیک

«تقارن» (Symmetry) به آن صورتی که توسط فیزیک‌دانان تعریف می‌شود، چراغ‌راهنمای دیگری برای فیزیک‌دانانی است که به دنبال قوانین جهانی طبیعت هستند. تقارن ویژگی توانایی تغییردادن چیزی و رسیدن به همان‌جایی است که شروع کرده بودید. هم‌اکنون مدل‌های هوش مصنوعی‌ای وجود دارند که می‌توانند مسائل فیزیک را متقارن‌تر کنند. برانتون در کنار «جی. ناتان کوتز» (J. Nathan Kutz) که او هم عضو دانشگاه واشنگتن است، دانش انواع بسیاری از تقارن را در برنامه SINDy خود گنجانده‌اند؛ برنامه‌ای که معادلاتی را برای توصیف رفتار پیچیده سیالات در حال جریان استخراج می‌کند. برانتون می‌گوید: «شما تقریباً همیشه مدل‌های بهتری از داده‌های کمتر به دست می‌آورید که دقیق‌تر هستند و می‌توانند نویز بیشتری را تحمل کنند.»

سپس بحث «زیبایی» (Beauty) یا «ظرافت» (Elegance) ریاضی مطرح است که تعریف آن دشوار است، اما بسیاری از فیزیک‌دانان هنگام توسعه نظریه‌های جدید همچنان برای آن تلاش می‌کنند. این امکان وجود دارد که همه این روش‌ها و آرمان‌ها در مدل‌های هوش مصنوعی که به دنبال معادلات جدید هستند، گنجانده شوند. اما «جسی تالر» (Jesse Thaler) از MIT خاطرنشان می‌کند که اگرچه شهود ما درباره واقعیت در گذشته مفید بوده، اما ما را به بیراهه نیز کشانده است.

هشدار درباره مدل‌های شبیه‌ساز انسانی

در نتیجه، تالر هشدار می‌دهد که در تلاش برای ساخت مدل‌های هوش مصنوعی که بیش از حد شبیه انسان باشند، ما در خطر ازدست‌دادن انقلابی‌ترین وعده آن‌ها هستیم؛ یعنی توانایی ارائه دیدگاهی جدید. او به یاد می‌آورد که یک هوش مصنوعی را روی مسئله‌ای که یک دهه در آن گیر کرده بود به کار گرفت. به‌سرعت، هوش مصنوعی با یک راه‌حل بازگشت که او سپس آن را به‌دقت بررسی کرد. وی دراین‌خصوص می‌گوید: «من خجالت کشیدم که خودم به آن فکر نکرده بودم. متوجه شدم که تعصبی درباره نحوه حل مسئله داشتم که محدودیتی را بر تفکر انسانی خودم تحمیل کرده بود که آن را به رایانه نداده بودم.»

گزارش حاضر در «راهنمای کلیدی نیو ساینتیست: انقلاب هوش مصنوعی» منتشر و در «رسانه تخصصی هوش مصنوعی هوشیو» به زبان فارسی نیز ترجمه شده و در دسترس مخاطبان این حوزه قرار گرفته است.

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها

در جریان مهم‌ترین اتفاقات AI بمانید

هر هفته، خلاصه‌ای از اخبار، تحلیل‌ها و رویدادهای هوش مصنوعی را در ایمیل‌تان دریافت کنید.

[wpforms id="48325"]