Filter by دسته‌ها
chatGTP
ابزارهای هوش مصنوعی
اخبار
گزارش
تیتر یک
چندرسانه ای
آموزش علوم داده
اینفوگرافیک
پادکست
ویدیو
دانش روز
آموزش‌های پایه‌ای هوش مصنوعی
اصول هوش مصنوعی
یادگیری بدون نظارت
یادگیری تقویتی
یادگیری عمیق
یادگیری نیمه نظارتی
آموزش‌های پیشرفته هوش مصنوعی
بینایی ماشین
پردازش زبان طبیعی
پردازش گفتار
چالش‌های عملیاتی
داده کاوی و بیگ دیتا
رایانش ابری و HPC
سیستم‌‌های امبدد
علوم شناختی
دیتاست
رویدادها
جیتکس
کاربردهای هوش مصنوعی
کتابخانه
اشخاص
شرکت‌های هوش مصنوعی
محصولات و مدل‌های هوش مصنوعی
مفاهیم
کسب‌و‌کار
تحلیل بازارهای هوش مصنوعی
کارآفرینی
هوش مصنوعی در ایران
هوش مصنوعی در جهان
مقاله
 هوش مصنوعی گوگل در کمتر از 6 ساعت تراشه طراحی می‌کند

هوش مصنوعی گوگل در کمتر از 6 ساعت تراشه طراحی می‌کند

زمان مطالعه: 2 دقیقه
در مقاله‌ای که یکی از محققان هوش مصنوعی گوگل به نام «دین جِف» منتشر کرده، دانشمندانِ تیم تحقیقات زیرساخت و اجرای تراشۀ گوگل به توصیف یک روش یادگیری‌محور برای طراحی تراشه پرداخته‌اند که می‌تواند از تجارب گذشته یاد بگیرد و با گذشت زمان ارتقاء یابد. شرکت گوگل مدعی شده که هوش مصنوعیِ این شرکت می‌تواند کارِ طراحی تراشه را به طور میانگین در کمتر از شش ساعت انجام دهد. این در حالی است که کارشناسان برای طراحی این تراشه‌ها به هفته‌ها زمان نیاز دارند.
اگرچه این کار کاملا جدید نیست، اما بر اساس روشی کار می‌کند که مهندسان گوگل در مقاله‌شان در ماه مارس پیشنهاد کرده‌اند. در این مقاله آمده است که جای‌گذاری ترانزیستورهای درون‌تراشه‌ای، می‌تواند تا حدود زیادی به صورت خودکار و بدون دخالت انسان انجام شود.
اگر روش پیشنهادیِ محققان هوش مصنوعی گوگل به صورت عمومی در دسترس قرار گیرد، آن دسته از شرکت‌های نوظهوری که با مشکلات مالی دست و پنجه نرم می‌کنند، فرصت لازم را برای ساخت و توسعه تراشه‌های خود خواهند داشت تا اهداف هوش مصنوعی و اهداف تخصصی دیگرشان را به پیش برند. علاوه براین، روش مذکور می‌تواند نقش موثری در کاهش چرخه طراحی تراشه‌ها داشته باشد و سخت‌افزارها را به شیوه بهتری با توسعه سریع تحقیقات همگام سازد.«دین جِف» سال گذشته در مصاحبه با VentureBeat اظهار داشت: «اساساً، اکنون یک سری ابزارها در فرایند طراحی وجود دارد که می‌توانند بسیار مفید باشند، اما کارشناسان مجبورند مراحل طراحی را با استفاده از این ابزارها، برای چندین و چندین بار تکرار کنند تا به نتیجه مورد نظر برسند.

طی کردن مراحل طراحی و ساخت محصول، فرایند زمانبری است که به چند هفته زمان نیاز دارد. بنابراین، تمام کارهای طراحی به دوش متخصصان است و باید از مدل یادگیری ماشین مناسبی که توان پیاده‌سازی طرح را در تراشه دارد، استفاده کنیم.»

هوش مصنوعی گوگل
جای‌گذاری آریان (Ariane ) پردازشگر منبع باز در طول مراحل آموزش؛ در سمت چپ، سیاست به طور کلی از نو آموزش داده می‌شود. در سمت راست، سیاستِ از پیش‌آموزش‌دیده در این تراشه، به طور دقیق تنظیم می‌شود. هر مستطیل نشان‌دهندۀ جایگذاری ماکرو است. عکس از: گوگل

محققان هوش مصنوعی گوگل می‌خواهند در روش پیشنهادی‌شان یک نمودار از گِیت‌های منطقی، حافظه و چند چیز دیگر را در تراشه جای‌گذاری کنند؛ به گونه‌ای که طرح بتواند به بهینه‌سازیِ قدرت، عملکرد و مساحت کمک کند و در عین حال به محدودیت‌های ازدحام مسیریابی و تراکم جای‌گذاری پایبند باشد. اندازه نمودارها می‌تواند از چند میلیون تا چند میلیارد گره باشد که این گره‌ها در هزاران دسته قرار دارند.

[irp posts=”15895″]

محققان چارچوبی طراحی کرده‌اند که برای بهینه‌سازیِ فرایند جای‌گذاری تراشه، از یک عامل که بوسیله یادگیری تقویتی آموزش می بیند، استفاده می‌کند. این مدل هوش مصنوعی با توجه به فهرست شبکه‌ها، شناسۀ گره فعلی که قرار است جای‌گذاری شود، فراداده‌های فهرست شبکه و فن‌آوری نیمه‌هادی، یک توزیع احتمال برای نقاط جای‌گذاری موجود ارائه می‌کند.

هوش مصنوعی گوگل
اندازه آموزش و عملکرد تنظیم دقیق. عکس از: گوگل

عاملی که در فوق به آن اشاره شد، اجزا را به طور متوالی جای‌گذاری می‌کند، تا جایی که فهرست شبکه‌ها را تکمیل کرده و تا پایان هیچ پاداشی دریافت نمی‌کند. برای اینکه عاملِ مورد نظر در انتخاب اجزا برای جای‌گذاری در وهله اول راهنمایی کافی بگیرد، اجزا به ترتیب اندازه از کم به زیاد چیده می‌شوند. جایگذاری اجزای بزرگتر در ابتدایِ کار باعث می‌شود بعدها امکان جای‌گذاری وجود نداشته باشد.

آموزشِ عامل (Agent)، مستلزمِ ساخت مجموعه‌داده‌ای متشکل از 10.000 جای‌گذاری تراشه بود. بر این اساس، ورودی به وضعیتی اشاره می‌کند که با جای‌گذاری ارتباط دارد و برچسب به منزلۀ پاداش برای جای‌گذاری است. محققان آن را با انتخاب 5 فهرست مختلف تراشه ساخته‌اند و یک الگوریتم هوش مصنوعی در آن به کار گرفته شده تا 2000 جای‌گذاری مختلف در هر فهرست شبکه، ممکن شود.

محققان بر اساس آزمایش‌ها فهمیدند وقتی چارچوب را در تراشه‌های بیشتری آموزش دهند، می‌توانند سرعت فرایند آموزش را افزایش دهند و سریع‌تر به نتایج بهتری برسند. در واقع، آنان مدعی شده‌اند که این چارچوب توانست عملکرد بهتری در واحدهای پردازش تنسور (TPU)Tensor processing unit گوگل موسوم به «TPU» داشته باشد.

محققان در پایان نتیجه گرفتند: «برخلاف روش‌های موجود که فرایند جای‌گذاری را از ابتدا در تراشه‌های جدید بهینه‌سازی می‌کنند، چارچوبِ ما از دانش بدست آمده از جای‌گذاری تراشه‌های پیشین استفاده می‌کند تا با گذشت زمان، خود را ارتقاء بخشد. افزون بر این، روش ما زمینه را برای بهینه‌سازیِ مستقیم متریک‌هایی از قبیل طول سیم، تراکم و ازدحام فراهم می‌کند. این روش نه تنها به‌کارگیری توابع هزینه جدید را آسان‌تر می‌کند، بلکه این فرصت را در اختیارمان می‌گذارد تا اهمیت آن‌ها را بر اساس نیازهای تراشه بسنجیم.»

میانگین امتیاز / 5. تعداد ارا :

مطالب پیشنهادی مرتبط

اشتراک در
اطلاع از
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
[wpforms id="48325"]