With the Hugging Face Library and Models to Solve Problems
Shashank Mohan Jain

#NLP
#NLU
#Transformers
🚀 این کتاب دقیقاً برای کساییه که میخوان معماری ترنسفورمر رو از پایه و با مثالهای عملی یاد بگیرن، اونم با استفاده از اکوسیستم Hugging Face.
ماجرا از معرفی NLP شروع میشه، یه فلشبک کوتاه به مدلهای زبانی از n-grams تا مدلهای مبتنی بر ترنسفورمر داریم، و بعد با مثالهای عملی روی Google Colab، میریم تو دل قضیه.
📦 بخش بعدی وارد Hugging Face ecosystem میشه: کتابخانهها، مدلها و ابزارهایی که ارائه داده. بعدش مدلهایی مثل Google BERT رو با مثال پیاده میکنه و بعدش سراغ کار با APIهای Hugging Face برای تسکهای پراستفاده میریم، مثل:
🎯 دستهبندی جملات (Sentence Classification)
😊 تحلیل احساسات (Sentiment Analysis)
✂ خلاصهسازی متن (Summarization)
✍ تولید متن (Text Generation)
در نهایت، یه شیرجه کامل تو فاینتیون مدلهای آماده میزنه و حتی ساخت یه Code Generator ساده با پایتون رو روی معماری ترنسفورمر نشون میده.
🧠 اهمیت و عملکرد Language Models رو در NLP و NLU کامل درک کنی.
🛠 معماری ترنسفورمر رو با مثالهای عملی مسلط بشی.
💻 از کتابخانه Hugging Face برای کار با مدلهای ترنسفورمر استفاده کنی.
🗒 یه مولد کد ساده با پایتون بسازی که روی ترنسفورمر سوار باشه.
شاشانک موهان جین (Shashank Mohan Jain) – با حدود ۲۰ سال تجربه در صنعت IT، مخصوصاً در حوزه رایانش ابری، یادگیری ماشین، و سیستمهای توزیعشده. علاقهمند جدی به مجازیسازی، امنیت و سیستمهای پیچیده. دارنده چندین پتنت نرمافزاری در رایانش ابری، IoT و ML. سخنران در چندین کنفرانس مطرح حوزه Cloud و دارنده گواهینامههای Sun، Microsoft و Linux Kernel.
Get a hands-on introduction to Transformer architecture using the Hugging Face library. This book explains how Transformers are changing the AI domain, particularly in the area of natural language processing.
This book covers Transformer architecture and its relevance in natural language processing (NLP). It starts with an introduction to NLP and a progression of language models from n-grams to a Transformer-based architecture. Next, it offers some basic Transformers examples using the Google colab engine. Then, it introduces the Hugging Face ecosystem and the different libraries and models provided by it. Moving forward, it explains language models such as Google BERT with some examples before providing a deep dive into Hugging Face API using different language models to address tasks such as sentence classification, sentiment analysis, summarization, and text generation.
After completing Introduction to Transformers for NLP, you will understand Transformer concepts and be able to solve problems using the Hugging Face library.
You will:
• Understand language models and their importance in NLP and NLU (Natural Language Understanding)
• Master Transformer architecture through practical examples
• Use the Hugging Face library in Transformer-based language models
• Create a simple code generator in Python based on Transformer architecture
Chapter 1: Introduction to Language Models
Chapter 2: Introduction to Transformers
Chapter 3: BERT
Chapter 4: Hugging Face
Chapter 5: Tasks Using the Hugging Face Library
Chapter 6: Fine-Tuning Pretrained Models
Shashank Mohan Jain has been working in the IT industry for around 20 years mainly in the areas of cloud computing, machine learning and distributed systems. He has keen interests in virtualization techniques, security, and complex systems. Shashank has software patents to his name in the area of cloud computing, IoT, and machine learning. He is a speaker at multiple reputed cloud conferences. Shashank holds Sun, Microsoft, and Linux kernel certifications.









