[AI] Raff E., Farris D., Biderman S. / Рафф Э., Фаррис Д., Бидерман С. - How Large Language Models Work / Как работают большие языковые модели [2025, PDF, ENG]

Страницы:  1
Ответить
 

tsurijin

Стаж: 4 года 10 месяцев

Сообщений: 2913


tsurijin · 20-Июн-25 05:54 (3 месяца 11 дней назад, ред. 20-Июн-25 06:00)

How Large Language Models Work / Как работают большие языковые модели
Год издания: 2025
Автор: Raff E., Farris D., Biderman S. / Рафф Э., Фаррис Д., Бидерман С.
Издательство: Manning Publications Co.
ISBN: 978-1-6334-3708-1
Язык: Английский
Формат: PDF
Качество: Издательский макет или текст (eBook)
Интерактивное оглавление: Да
Количество страниц: 200
Описание: Learn how large language models like GPT and Gemini work under the hood in plain English.
How Large Language Models Work translates years of expert research on Large Language Models into a readable, focused introduction to working with these amazing systems. It explains clearly how LLMs function, introduces the optimization techniques to fine-tune them, and shows how to create pipelines and processes to ensure your AI applications are efficient and error-free.
In How Large Language Models Work you will learn how to:
• Test and evaluate LLMs
• Use human feedback, supervised fine-tuning, and Retrieval Augmented Generation (RAG)
• Reducing the risk of bad outputs, high-stakes errors, and automation bias
• Human-computer interaction systems
• Combine LLMs with traditional ML
How Large Language Models Work is authored by top machine learning researchers at Booz Allen Hamilton, including researcher Stella Biderman, Director of AI/ML Research Drew Farris, and Director of Emerging AI Edward Raff. They lay out how LLM and GPT technology works in plain language that’s accessible and engaging for all.
About the Technology
Large Language Models put the “I” in “AI.” By connecting words, concepts, and patterns from billions of documents, LLMs are able to generate the human-like responses we’ve come to expect from tools like ChatGPT, Claude, and Deep-Seek. In this informative and entertaining book, the world’s best machine learning researchers from Booz Allen Hamilton explore foundational concepts of LLMs, their opportunities and limitations, and the best practices for incorporating AI into your organizations and applications.
About the Book
How Large Language Models Work takes you inside an LLM, showing step-by-step how a natural language prompt becomes a clear, readable text completion. Written in plain language, you’ll learn how LLMs are created, why they make errors, and how you can design reliable AI solutions. Along the way, you’ll learn how LLMs “think,” how to design LLM-powered applications like agents and Q&A systems, and how to navigate the ethical, legal, and security issues.
What’s Inside
• Customize LLMs for specific applications
• Reduce the risk of bad outputs and bias
• Dispel myths about LLMs
• Go beyond language processing
About the Readers
No knowledge of ML or AI systems is required.
About the Author
Edward Raff, Drew Farris and Stella Biderman are the Director of Emerging AI, Director of AI/ML Research, and machine learning researcher at Booz Allen Hamilton.
Узнайте, как работают большие языковые модели, такие как GPT и Gemini, на простом английском языке.
"Как работают большие языковые модели" - это результат многолетних исследований экспертов в области больших языковых моделей в удобочитаемом и целенаправленном руководстве по работе с этими удивительными системами. В нем подробно объясняется, как функционируют LLMS, представлены методы оптимизации для их тонкой настройки и показано, как создавать конвейеры и процессы, обеспечивающие эффективность и безошибочность ваших приложений искусственного интеллекта.
Из книги вы узнаете, как:
• Тестировать и оценивать LLMS
• Используйте обратную связь с человеком, контролируемую тонкую настройку и расширенную генерацию результатов поиска (RAG)
• Снижайте риск получения некачественных результатов, серьезных ошибок и искажений в автоматизации
• Системы взаимодействия человека и компьютера
• Сочетайте LLMS с традиционным ML
Книга "Как работают большие языковые модели" написана ведущими исследователями в области машинного обучения в Booz Allen Hamilton, в том числе Стеллой Бидерман, директором по исследованиям в области искусственного интеллекта Дрю Фаррисом и директором по развивающемуся искусственному интеллекту Эдвардом Раффом. В них простым языком, доступным и увлекательным для всех, рассказывается о том, как работают технологии LLM и GPT.
О технологии
Большие языковые модели расставляют все точки над “I” в понятии “Искусственный интеллект”. Объединяя слова, концепции и шаблоны из миллиардов документов, магистранты могут генерировать ответы, похожие на человеческие, которые мы привыкли ожидать от таких инструментов, как ChatGPT, Claude и Deep-Seek. В этой информативной и занимательной книге лучшие в мире исследователи машинного обучения из Booz Allen Hamilton исследуют основополагающие концепции LLM, их возможности и ограничения, а также лучшие практики внедрения искусственного интеллекта в ваши организации и приложения.
О книге
На примере работы с большими языковыми моделями вы познакомитесь с LLM и шаг за шагом увидите, как подсказка на естественном языке превращается в понятный текст. Из этой книги, написанной простым языком, вы узнаете, как создаются LLM, почему в них допускаются ошибки и как можно разрабатывать надежные решения с использованием искусственного интеллекта. Попутно вы узнаете, как “мыслят” магистранты, как разрабатывать приложения на базе LLM, такие как агенты и системы вопросов и ответов, а также как ориентироваться в этических, юридических вопросах и вопросах безопасности.
Что внутри
• Настройка LLM для конкретных приложений
• Снизить риск получения плохих результатов и предвзятости
• Развеять мифы о магистратуре
• Выход за рамки языковой обработки
О читателях
Для этого не требуется никаких знаний в области ML или систем искусственного интеллекта.
Об авторе
Эдвард Рафф, Дрю Фаррис и Стелла Бидерман - директора по развитию искусственного интеллекта, директор по исследованиям в области AI /ML и исследователь машинного обучения в Booz Allen Hamilton.
Примеры страниц (скриншоты)
Оглавление
1 Big picture: What are LLMs? 1
2 Tokenizers: How large language models see the world 14
3 Transformers: How inputs become outputs 29
4 How LLMs learn 46
5 How do we constrain the behavior of LLMs? 65
6 Beyond natural language processing 88
7 Misconceptions, limits, and eminent abilities of LLMs 107
8 Designing solutions with large language models 125
9 Ethics of building and using LLMs 140
Download
Rutracker.org не распространяет и не хранит электронные версии произведений, а лишь предоставляет доступ к создаваемому пользователями каталогу ссылок на торрент-файлы, которые содержат только списки хеш-сумм
Как скачивать? (для скачивания .torrent файлов необходима регистрация)
[Профиль]  [ЛС] 
 
Ответить
Loading...
Error