نام کتاب
Transformers in Action

Nicole Koenigstein

Paperback258 Pages
PublisherManning
Edition1
LanguageEnglish
Year2026
ISBN9781633437883
852
A6504
انتخاب نوع چاپ:
جلد سخت
504,000ت
0
جلد نرم
444,000ت
0
طلق پاپکو و فنر
454,000ت
0
مجموع:
0تومان
کیفیت متن:اورجینال انتشارات
قطع:B5
رنگ صفحات:دارای متن و کادر رنگی
پشتیبانی در روزهای تعطیل!
ارسال به سراسر کشور

#Transformers

#LLM

#ChatGPT

#Gemini

#Claude

توضیحات

🤖 درک معماری پشت قدرتمندترین مدل‌های هوش مصنوعی امروز، یعنی شناخت ترنسفورمرها – قلب تپنده‌ی مدل‌های زبانی بزرگ مثل ChatGPT، Gemini و Claude.

🛠 کتاب Transformers in Action هم بینش عمیق میده، هم تکنیک‌های عملی و کلی نمونه‌کد، تا بتونی مدل‌های ترنسفورمر آموزش‌دیده را برای کارهای جدید و خاص شخصی‌سازی و سازگار کنی.


🚀 در این کتاب یاد می‌گیری:

🧩 ترنسفورمرها و LLMها چطور کار می‌کنند

🏛 خانواده‌های مدل و نسخه‌های مختلف معماری

⚡ مدل‌های زبانی بزرگ کارآمد و تخصصی

🔄 سازگار کردن مدل‌های HuggingFace برای وظایف جدید

🔍 خودکارسازی جستجوی هایپرتیون‌ها با Ray Tune و Optuna

📈 بهینه‌سازی عملکرد LLMها

✏️ پرامپت‌نویسی پیشرفته و یادگیری صفر/کم‌نمونه

🕹 تولید متن با یادگیری تقویتی (Reinforcement Learning)

🛡 ساخت مدل‌های مسئولانه و اخلاقی


📚 نویسنده Nicole Koenigstein از پنجره‌ی ریاضیات و نظریه، معماری ترنسفورمر رو به شکل عملی با نوت‌بوک‌های اجرایی Jupyter آموزش میده. علاوه بر پرامپت‌انجینیرینگ، روش‌های تست‌شده‌ی بهینه‌سازی و تیون LLM را پوشش میده. حتی سراغ موضوعات منحصربه‌فرد مثل اخلاق در AI، مدل‌های کوچک تخصصی و معماری Encoder-Decoder هم میره.


💡 درباره فناوری

🧠 ترنسفورمرها از مکانیزم Self-Attention استفاده می‌کنند که به شبکه اجازه میده هر بخش ورودی رو در زمینه‌ی سایر بخش‌ها ارزیابی کنه. خروجی این معماری: درک و تولید زبان طبیعی، ترجمه، خلاصه‌سازی متن، و حتی نوشتن کد با روانی و انسجام بالاست.

📄 درباره کتاب

🔍 این کتاب با دقت به طراحی و پایه‌های ریاضی ترنسفورمر می‌پردازه. معماری رو از نظر سرعت، مقیاس‌پذیری و بازیابی اطلاعات بررسی می‌کنه، به همراه کاربردهایی مثل RAG و مدل‌های چندحالته (Multi-modal). یاد می‌گیری چطور آموزش رو با تکنیک‌های نمونه‌گیری و دیکودینگ پیشرفته بهینه کنی، و با یادگیری تقویتی مدل رو با ترجیحات انسانی هماهنگ کنی. همه‌چیز با مثال‌های واقعی و نوت‌بوک‌های اجرایی پیش میره، تا مبحث رو در عمل ببینی.


🗂 فهرست مطالب

بخش ۱ – پایه‌های مدل‌های ترنسفورمر مدرن

  1. نیاز به ترنسفورمرها
  2. نگاه عمیق‌تر به ترنسفورمرها

بخش ۲ – ترنسفورمرهای مولد

  1. خانواده‌ها و نسخه‌های مختلف معماری
  2. استراتژی‌های تولید متن و تکنیک‌های پرامپتینگ
  3. هماهنگی با ترجیحات و بازیابی تقویتی (RAG)

بخش ۳ – مدل‌های تخصصی

  1. مدل‌های چندحالته (Multimodal)
  2. مدل‌های زبانی کوچک و کارآمد
  3. آموزش و ارزیابی LLMها
  4. بهینه‌سازی و مقیاس‌دادن LLMها
  5. مدل‌های زبانی اخلاق‌مدار و مسئولانه


👩‍💻 درباره نویسنده

📍 نیکول کوینگستاین، دانشمند داده و پژوهشگر کمی، مدیر ارشد داده و رئیس بخش AI و تحقیقات کمی در Wyden Capital است؛ تجربه‌ی زیادی در طراحی و اجرای پروژه‌های داده‌محور و مدل‌سازی پیشرفته دارد.


Understand the architecture that underpins today’s most powerful AI models.


Transformers are the superpower behind large language models (LLMs) like ChatGPT, Gemini, and Claude. Transformers in Action gives you the insights, practical techniques, and extensive code samples you need to adapt pretrained transformer models to new and exciting tasks.


Inside Transformers in Action you’ll learn:


• How transformers and LLMs work

• Modeling families and architecture variants

• Efficient and specialized large language models

• Adapt HuggingFace models to new tasks

• Automate hyperparameter search with Ray Tune and Optuna

• Optimize LLM model performance

• Advanced prompting and zero/few-shot learning

• Text generation with reinforcement learning

• Responsible LLMs


Transformers in Action takes you from the origins of transformers all the way to fine-tuning an LLM for your own projects. Author Nicole Koenigstein demonstrates the vital mathematical and theoretical background of the transformer architecture practically through executable Jupyter notebooks. You’ll discover advice on prompt engineering, as well as proven-and-tested methods for optimizing and tuning large language models. Plus, you’ll find unique coverage of AI ethics, specialized smaller models, and the decoder encoder architecture.


Foreword by Luis Serrano.


About the technology


Transformers are the beating heart of large language models (LLMs) and other generative AI tools. These powerful neural networks use a mechanism called self-attention, which enables them to dynamically evaluate the relevance of each input element in context. Transformer-based models can understand and generate natural language, translate between languages, summarize text, and even write code—all with impressive fluency and coherence.


About the book


Transformers in Action introduces you to transformers and large language models with careful attention to their design and mathematical underpinnings. You’ll learn why architecture matters for speed, scale, and retrieval as you explore applications including RAG and multi-modal models. Along the way, you’ll discover how to optimize training and performance using advanced sampling and decoding techniques, use reinforcement learning to align models with human preferences, and more. The hands-on Jupyter notebooks and real-world examples ensure you’ll see transformers in action as you go.


What's inside


• Optimizing LLM model performance

• Adapting HuggingFace models to new tasks

• How transformers and LLMs work under the hood

• Mitigating bias and responsible ethics in LLMs


About the reader


For data scientists and machine learning engineers.


About the author


Nicole Koenigstein is the Co-Founder and Chief AI Officer at the fintech company Quantmate.


Table of Contents

Part 1. Foundations of Modern Transformer Models

1. The need for transformers

2. A deeper look into transformers


Part 2. Generative Transformers

3. Model families and architecture variants

4. Text generation strategies and prompting techniques

5. Preference alignment and retrieval-augmented generation


Part 3. Specialized Models

6. Multimodal models

7. Efficient and specialized small language models

8. Training and evaluating large language models

9. Optimizing and scaling large language models

10. Ethical and responsible large language models


About the Author

Nicole Koenigstein is a distinguished Data Scientist and Quantitative Researcher. She is presently the Chief Data Scientist and Head of AI & Quantitative Research at Wyden Capital.

دیدگاه خود را بنویسید
نظرات کاربران (0 دیدگاه)
نظری وجود ندارد.
کتاب های مشابه
Transformers
1,308
Mastering Transformers
669,000 تومان
Transformers
852
Transformers in Action
444,000 تومان
Transformers
563
Hands-On Generative AI with Transformers and Diffusion Models
621,000 تومان
Machine Learning
974
Transformers for Machine Learning
473,000 تومان
Computer Vision
820
Transformers for Natural Language Processing and Computer Vision
1,268,000 تومان
NLP
1,242
Transformers for Natural Language Processing
1,055,000 تومان
NLP
1,571
Natural Language Processing with Transformers
610,000 تومان
قیمت
منصفانه
ارسال به
سراسر کشور
تضمین
کیفیت
پشتیبانی در
روزهای تعطیل
خرید امن
و آسان
آرشیو بزرگ
کتاب‌های تخصصی
هـر روز با بهتــرین و جــدیــدتـرین
کتاب های روز دنیا با ما همراه باشید
آدرس
پشتیبانی
مدیریت
ساعات پاسخگویی
درباره اسکای بوک
دسترسی های سریع
  • راهنمای خرید
  • راهنمای ارسال
  • سوالات متداول
  • قوانین و مقررات
  • وبلاگ
  • درباره ما
چاپ دیجیتال اسکای بوک. 2024-2022 ©