آموزش پردازش زبان طبیعی با اکوسیستم هاگینگ فیس ؛ مقدمه (قسمت اول فصل دوم)
به بخش مقدمه فصل دوم از دوره آموزشی پردازش زبان طبیعی خوش آمدید. در فصل اول از مدلهای ترنسفورمر برای انجام کارهای مختلفی استفاده شد و از API در pipeline کمک گرفته شد. این API از سادگی و توان بالایی برخوردار است، اما باید از کارکرد دقیق آن آگاهی پیدا کنیم تا امکان حل مسائل دیگر فراهم شود. در فصل جاری، موارد زیر را یاد خواهید گرفت:
• نحوه استفاده از توکنکنندهها و مدلها برای تکرار رفتار API در pipeline
• نحوه بارگذاری و دخیره مدلها و توکنکنندهها
• روشهای توکنسازی مختلف (بر اساس کاراکتر، کلمه یا زیرکلمه)
• نحوه مدیریت جملات مختلف با طول متغیر
مدلهای ترنسفورمر
شایان ذکر است که این قسمت تنها مقدمه فصل دوم است و برای دسترسی به قسمتهای دیگر از این دوره آموزشی میتوانید از لینک انتهای مطلب اقدام کنید. آنطور که در فصل اول ذکر شد، مدلهای ترنسفورمر معمولاً بسیار بزرگاند. آموزش و بهکارگیری این مدلها به دلیل برخورداری از دهها میلیارد پارامتر یکی از کارهای بسیار پیچیده برشمرده میشود.
با توجه به اینکه همه روزه مدلهای جدیدی روانه بازار میشود و هر کدام دارای شیوههای اجرایی خاص خود هستند، بررسیِ تک به تک آنها کار آسانی نیست. کتابخانه ترنسفورمرها با هدفِ حل این مشکل ساخته شده است. این کتابخانه یک API عرضه میکند تا امکان بارگذاری، آموزش و ذخیره مدلهای ترنسفورمر مهیا شود. از جمله ویژگیهای کلیدی کتابخانه مذکور به شرح زیر میباشد:
• کاربری آسان: دانلود، بارگذاری و استفاده از یک مدل نوین NLP (پردازش زبان طبیعی) تنها با دو خط کُد انجام میگیرد.
• انعطافپذیری: کلیه مدلها در زمرهی PyTorch nn.Module یا TensorFlow tf.keras.Model قرار میگیرند و به مانند هر مدل دیگری در چارچوب یادگیری ماشین مدیریت میشوند.
• سادگی: مفاهیم انتزاعی متنوعی در این کتابخانه ساخته میشوند.
ویژگی آخر، وجه تمایز ترنسفورمرها با سایر کتابخانههای یادگیری ماشین است. مدلها در ماژولهایی که در کل فایل به اشتراک گذاشته شوند، ساخته نمیشوند؛ بلکه هر مدل دارای لایههای مخصوص خود میباشد.
این ویژگی نه تنها باعث میشود مدلها قابل فهمتر باشند، بلکه امکان آزمایشِ آسان در یک مدل را نیز فراهم میکند؛ بدون اینکه سایر مدلها تحت تاثیر قرار گیرند.
نمونههای end-to-end که در ابتدای فصل جاری آورده شده نشان میدهد که از یک مدل و توکنکننده برای تکرار مجدد API استفاده شده است. جزئیات این امر در فصل اول شرح داده شد. در گام بعدی، به بحث درباره API مدل خواهیم پرداخت.
بررسی جامع مدل و دستههای پیکربندی در مراحل بعدی قرار دارد. نحوهی بارگذاری مدل و نحوه پردازش ورودیهای عددی به منظور پیشبینی خروجیها نیز در دستور کار میباشد.
API توکنکننده
همانطور که در این مطلب با عنوان مقدمه فصل دوم اشاره شد، در ادامه، API توکنکننده معرفی و توضیح داده خواهد شد که یکی دیگر از مولفههای اصلیِ pipeline است.
توکنکنندهها میتوانند به خوبی از پسِ مراحل پردازش نخست و پایانی برآیند. بنابراین، متن در شبکههای عصبی به ورودیهای عددی تبدیل میشود (و بالعکس).
در نهایت، چگونگی ارسال چندین جمله از طریق یک مدل در دستهی آماده نیز برای کاربران توضیح داده میشود. کار را با بررسی دقیقِ تابع توکنکننده به پایان خواهیم برد.
از طریق لینک زیر میتوانید به دیگر قسمتهای دوره آموزشی پردازش زبان طبیعی دسترسی داشته باشید:
[button href=”https://hooshio.com/%D8%B1%D8%B3%D8%A7%D9%86%D9%87-%D9%87%D8%A7/%D8%A2%D9%85%D9%88%D8%B2%D8%B4-%D9%BE%D8%B1%D8%AF%D8%A7%D8%B2%D8%B4-%D8%B2%D8%A8%D8%A7%D9%86-%D8%B7%D8%A8%DB%8C%D8%B9%DB%8C/” type=”btn-default” size=”btn-lg”]آموزش پردازش زبان طبیعی[/button]