پایپ لاین
آموزش پردازش زبان طبیعیآموزش‌های پیشرفته هوش مصنوعیپردازش زبان طبیعی

آموزش پردازش زبان طبیعی با اکوسیستم هاگینگ فیس ؛ بررسی جامع پایپ لاین (قسمت دوم فصل دوم)

    0
    مدت زمان مطالعه: ۶ دقیقه

    در این قسمت قرار است بررسی جامعی از پایپ لاین داشته باشیم؛ اما محتوای این بخش قدری با سایر بخش‌ها فرق دارد. بیایید در ابتدای کار این مثال را بررسی کنیم. در زیر خواهید دید که با اجرای کد زیر چه اتفاقی رخ می‌دهد:

    نتیجه به صورت زیر قابل نمایش می‌باشد:

    همان‌طور که در فصل ۱ (لینک مربوط به قسمت‌های دیگر در پایان مطلب قرار داده شده است) ملاحظه کردید، این تابع شامل سه مرحله می‌باشد: پیش‌پردازش، درج ورودی‌ها در مدل و پس‌پردازش. این مراحل به طور جامع توضیح داده خواهند شد.

    پایپ لاین

    پیش‌پردازش با توکن‌کننده

    مدل‌های ترنسفورمر به مانند سایر شبکه‌های عصبی قادر به پردازش مستقیم متن خام نیستند؛ بنابراین، باید در اولین گام ورودی‌های متنی را به اعدادی تبدیل کرد تا مدل بتواند با آن‌ها کار کند. توکن‌کننده tokenizer بهترین ابزار برای انجام این کار است و مسئولیت انجام کارهای زیر را بر عهده دارد:

    • تقسیم ورودی‌ها به واژه، زیرواژه یا علائم نگارشی که توکن نامیده می‌شوند.
    • نگاشت هر توکن به یک عدد صحیح
    • افزودن ورودی‌های بیشتر که ممکن است برای مدل مفید باشد.

    کل مرحله پیش‌پردازش باید با همان رویکردی انجام گیرد که در هنگام پیش‌آموزشِ مدل اتخاذ شد. لذا، باید اطلاعات لازم را از Model Hub دانلود کرد. این کار با کلاس AutoTokenizer انجام می‎‌پذیرد. در این میان، از روش پیش‌آموزش یافته نیز کمک گرفته می‌شود. این ابزار می‌تواند داده‌های مرتبط با توکن‌کننده‌ی مدل را به صورت خودکار گردآوری و ذخیره کند. بنابراین، تنها زمانی دانلود می‌شود که برای اولین بار کد زیر را اجرا کنید.

    از آنجا که چک‌پوینت پیش‌فرضِ پایپ لاین «تحلیل احساسات Sentiment analysis» عبارت است از distilbert-base-uncased-finetuned-sst-2-english، باید کد زیر را اجرا کرد:

    حال که توکن‌کنند موجود می‌باشد، می‌توان به طور مستقیم جملات را به آن برای توکن کردن پاس داد. در این صورت، یک دیکشنری خواهیم داشت که ورودی مدل می‌باشد. تنها کاری که باقی مانده، این است که لیست شناسه‌های ورودیinput IDs را به تنسور تبدیل کنیم. بدون اینکه نگران این موضوع باشید که کدام چارچوب یادگیری ماشین به عنوان بک‌اِند مورد استفاده قرار می‌گیرد، از ترنسفورمرها استفاده کنید. ممکن است مدل مد نظرتان پای‌تورچ، تنسورفلو یا فلکس باشد. مدل‌های ترنسفورمر فقط تنسورها را به عنوان ورودی می‌پذیرند. اگر عبارت «تنسور» برای نخستین بار به گوش‌تان می‌خورَد، می‌توانید آنها را به عنوان آرایه‌های NumPy در نظر بگیرید. آرایه NumPy می‌تواند اسکالر، بردار یا ماتریس باشد و یا دو بُعد بیشتر داشته باشد؛ مطمئناً یک تنسور به حساب می‌آید. تنسورهای سایر چارچوب‌های یادگیری ماشین رفتار مشابهی دارند. از آرگومان return_tensors برای تعیین نوع تنسورهای مورد نیاز استفاده می‌شود:

    نگران حاشیه پد padding و برش truncation دادگان نباشید. این مفاهیم در بخش‌های بعدی توضیح داده خواهند شد. باید این موضوع را به خاطر بسپارید که می‌توانید جمله یا لیستی از جملات را به توکن‌کننده پاس بدهید؛ و نوع تنسورهایی را که می‌خواهید به دست آورید، مشخص کنید(توجه کنید اگر نوع تنوسر مشخص نشود به صورت پیش‌فرض لیستی از لیست‌ها در نظر

    گرفته می‌شود). در بخش زیر، نتایج مربوط به تنسورهای TensorFlow نشان داده شده است:

    خروجی یک نوع دیکشنری است که حاوی دو کلید input_ids  و attention_mask می‌باشد. input_ids  دو سطر اعداد صحیح دارد که شناساگر منحصربه‌فردِ  هر توکن‌ در هر جمله می‌باشند. attention_mask  در بخش‌های بعدیِ این فصل توضیح داده خواهد شد.

    بررسی مدل

    به همان شیوه‌ای که در توکن‌کننده عمل شد، می‌توان مدل پیش‌آموزش داده شده را نیز دانلود کرد. ترنسفورمرها کلاسی به نام TFAutoModel  ارائه می‌کنند که از from_pretrained  بهره می‌برد.

    در این قطعه کد، همان چک‌پوینتی دانلود شده است که پیشتر در پایپ لاین به کار گرفته شد. این معماری فقط حاوی ماژول پایه ترنسفورمر است. اگر چند ورودی در اختیارش قرار دهیم، حالات پنهانHidden states یا ویژگی‌هاFeatures را به عنوان خروجی ارائه می‌دهد. در ازای هر ورودی مدل، یک بازنمایی چندبعدی که دارای اطلاعات و دانش مفهوم و محتوای ورودی ترنسفورمر می‌باشد. اگر متوجه نشدید، نگران نباشید. توضیحات بیشتر در بخش‌های بعدی فصل ارائه خواهد شد.

    این حالات پنهان می‌توانند به تنهایی مفید واقع شوند، اما معمولاً ورودیِ بخش دیگری از مدل (موسوم به head) هستند. در فصل ۱، امکان انجام کارهای مختلف با معماری یکسان وجود داشته است، اما هر کدام از این کارها دارای head متفاوتی خواهند بود.

    بردار چندبعدیA high-dimensional vector

    خروجی مدل با ماژول ترنسفورمر معمولاً بزرگ است و عموماً دارای سه بُعد می‌باشد:

    اندازه دستهBatch size : تعداد توالی‌های پردازش شده در یک سری.

    طول توالیSequence length : طول بازنمایی‌های عددیِ توالی.

    اندازه پنهانHidden size : بُعد برداریِ هر ورودی مدل.

    دلیل انتخاب چنین نامی برای بردار یاد شده، مقدار بعد آخر آن(اندازه پنهان) است. اندازه پنهان می‌تواند بسیار بزرگ باشد. اگر ورودی‌های پیش‌پردازش شده به مدل اضافه شوند، موضوع فوق به روشنی توضیح داده می‌شود:

    توجه داشته باشید که خروجی‌ مدل‌های ترنسفورمر رفتاری مانند namedtuples یا دیشکنری دارند. دسترسی به خروجی به شکل (outputs[“last_hidden_state”]) نیز قابل دسترس هستند.

    سرهای مدل

    سرhead مدل یک بردار با ابعاد بالای  حالات پنهان را به عنوان ورودی به کار برده و آنها را در بُعد متفاوتی بازتاب می‌دهند. سر های مدل  معمولاً از یک یا چند لایه خطیlinear  تشکیل یافته‌اند. خروجی مدل ترنسفورمر به طور مستقیم به سر مدل ارسال می‌شود تا عمل پردازش بر روی آن صورت گیرد. در این نمودار، مدل با لایه embeddings و لایه‌های بعدی نمایش داده می‌شود.

    پایپ لاین

    لایه embeddings هر یک از شناسه‌های ورودی را به برداری تبدیل می‌کند توکن مربوطه را به نمایش می‌گذارد. لایه‌های بعدی آن بردارها را با استفاده از مکانیسم توجه دستکاری می‌کنند تا بازنمایی نهایی از جملات ایجاد شود. معماری‌های بسیار متفاوتی در ترنسفورمرها وجود دارد که هر کدام برای عمل خاصی طراحی شده‌اند. به لیست زیر توجه نمایید:

    • *Model (retrieve the hidden states)
    • *ForCausalLM
    • *ForMaskedLM
    • *ForMultipleChoice
    • *ForQuestionAnswering
    • *ForSequenceClassification
    • *ForTokenClassification
    • و دیگر موارد

    برای مثال به مدلی با سر دسته‌بندی توالیsequence classification head  نیاز داریم. بنابراین، امکان دسته‌بندی توالی‌ها در قالب مثبت یا منفی فراهم می‌شود. پس بهتر است از TFAutoModelForSequenceClassification استفاده کنیم:

    اکنون اگر نگاهی به شکلِ ورودی‌هایمان بیندازیم، می‌بینیم بعد خروجی کاهش یافته است.

    سر مدل، بردار با ابعاد بالا را به عنوان ورودی به کار می‌گیرد و بردار حاوی دو مقدار را به عنوان خروجی می‌دهد:

    .

    چون فقط دو جمله و دو برچسب داریم، نتیجه حاصل از مدل به شکل  خواهد بود.

    پس‌پردازش خروجی

    در این مرحله از پایپ لاین مقادیری که در قالب خروجی از مدل به دست می‌آیند، به تنهایی معنای چندانی ندارند. بیایید دقیق‌تر بررسی کنیم:

    .

    مدلِ ما[-۱.۵۶۰۷, ۱.۶۱۲۳]  را برای اولین جمله و [ ۴.۱۶۹۲, –۳.۳۴۶۴]  را برای دومین جمله پیش‌بینی کرد. اینها احتمال نیستند، بلکه ارقام خام و نرمال‌سازی نشده‌ای هستند که لایه آخرِ مدل از آنها خروجی گرفته است. آنها برای اینکه به احتمال تبدیل شوند، باید از لایه سافت‌مکسsoftmax  عبور کنند.

    .

    اینک، می‌بینیم که مدل توانسته [۰.۰۴۰۲, ۰.۹۵۹۸]  را برای جمله اول و [۰.۹۹۹۵, ۰.۰۰۰۵]  را برای جمله دوم پیش‌بینی کند. این ارقام احتمال قابل درک هستند. برای به  دست آوردن برچسب‌ متناظر با هر خروجی، می‌توان  ویژگی از id2label استفاده کرد:

    .

    اکنون، می‌توان این چنین نتیجه گرفت که مدل نتایج زیر را پیش‌بینی کرده است:

    جمله اول: منفی: ۰۴۰۲/۰، مثبت: ۹۵۹۸/۰

    جمله دوم: منفی: ۹۹۹۵/۰، مثبت: ۰۰۰۵/۰

    هر سه مرحله پایپ لاین (پیش‌پردازش با توکن‌کننده‌ها، درج ورودی‌ها در مدل و پس‌پردازش) با موفقیت به انجام رسید.

    از طریق لینک زیر می‌توانید به دیگر قسمت‌های دوره آموزشی پردازش زبان طبیعی دسترسی داشته باشید:

    آموزش پردازش زبان طبیعی

    این مطلب چه میزان برای شما مفید بوده است؟
    [کل: ۰ میانگین: ۰]

    احراز هویت، مطالبه وزارت صمت برای فعالیت کسب و کارهای حوزه فروش خودرو

    مقاله قبلی

    امام جمعه موقت سمنان: تقویت علم هوش مصنوعی ضرورت امروز کشور است

    مقاله بعدی

    شما همچنین ممکن است دوست داشته باشید

    نظرات

    پاسخ دهید

    نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *