Natural Language Processing позволяет нейросетям понимать человека
В том числе имитировать разговор, выполнять запросы, извлекать пользу из массивов естественной речи
Например, NLP используют чат‑боты, голосовые ассистенты, автопереводчики, сложные аналитические системы
Если у вас нет базы в DL, посмотрите курс «Инженер по глубокому обучению нейросетей»
Сначала научитесь работать на фреймоворке PyTorch, строить, обучать нейросети и подготавливать данные, а потом сможете выбрать специализацию — в том числе NLP

Посмотреть курс
Освоите продвинутые подходы, модели и архитектуры

RoBERTa
XLM-RoBERTa
DeBERTa
NER
PyTorch Lightning
DP
DDP
FSDP
LLaMA
GPT
SFT
RLHF
PEFT
LoRA
RoPE
ALiBi
vLLM
T5
NLLB
Seq2Seq
RAG
ANN
FAISS
BM25
Elasticsearch
CLIP
SigLIP
Программу обновляем регулярно, чтобы вы проходили только актульное
Курс идёт 2 месяца; нагрузка — от 15 часов в неделю
2 часа
Бесплатно
Нейросетевые решения на практике
  • PyTorch
  • CV
  • NLP
Знакомство с курсом
Узнаете, как организован курс: из чего состоит программа, как устроена платформа, какие активности вас ждут
Введение в нейросети и их роль в решении сложных задач
Поймёте, в каких областях применяются нейросети и какие задачи они решают в реальной жизни
Работа с текстами
Классифицируете тексты с использованием предобученной модели
Работа с изображениями
Классифицируете изображения с помощью предобученной модели
Нейросети на практике
Научитесь использовать нейросети в повседневной практике и для решения профессиональных задач
Научитесь использовать предобученные модели для анализа текста и изображений и интерпретировать результаты их работы
1
1 проект・2 недели
Современные модели: обучение и ключевые механизмы
  • RoBERTa
  • XLM-RoBERTa
  • DeBERTa
  • NER
  • PyTorch Lightning
  • DP
  • DDP
  • FSDP
Multi-Head Attention и BERT
Разберёте трансформер на уровне тензоров, attention-механизм, позиционные эмбеддинги и skip connections. Напишете полный encoder с нуля. Изучите архитектуру BERT, задачи MLM и NSP, CLS‑токен, ограничения attention и такие решения, как flash/sparse attention.
Эволюция моделей в NLP
Сравните токенизаторы (BPE, WordPiece и другие) по стабильности и размеру словаря. Рассмотрите развитие моделей: RoBERTa, XLM‑R, DeBERTa, e5, включая мультиязычные и облегчённые версии для продакшна. Изучите NER: BIO‑разметку, entity spans, лоссы.
Эффективная тренировка моделей
Освоите float16, bfloat16, mixed precision, включите AMP в PyTorch. Изучите квантизацию (PTQ, QAT) и распределённую тренировку (DataParallel, DDP, FSDP). Разберёте torch.compile и научитесь работать с PyTorch Lightning.
Решите задачу NER, выявив все сущности, и предскажете, сколько их в тексте, через регрессию по CLS
2
1 проект・2 недели
Большие языковые модели
  • LLama
  • GPT
  • SFT
  • RLHF
  • PEFT
  • LoRA
  • RoPE
  • ALiBi
  • vLLM
Введение в большие языковые модели
Разберёте понятие LLM: масштаб, архитектуру decoder-only, scaling laws. Погрузитесь в стратегии генерации текста (beam search, top‑k, nucleus sampling и другие) и параметры управления (temperature, top-p, repetition penalty). Изучите шаблоны промптов и принципы few-/zero-shot.
Архитектура и принципы работы LLM
Рассмотрите эволюцию моделей: GPT, LLaMA, Mistral и других. Освоите пайплайн обучения: предобучение, SFT, RLHF. Познакомитесь с PEFT‑методами (LoRA, QLoRA, AdaLoRA) и областями их применения.
Оптимизации в LLM
Разберёте ограничения контекста и позиционные кодировки (RoPE, ALiBi, Yarn). Погрузитесь в оптимизацию памяти: FlashAttention, KV‑кеш, Paged Attention. Научитесь работать с vLLM: настроите инференс и будете контролировать память.
Настроите генерацию с Distill-DeepSeek в vLLM: решите генеративную задачу, адаптируете шаблоны промптов
3
1 проект・2 недели
Практические аспекты Seq2Seq‑моделей в NLP
  • T5
  • LoRA
  • NER
  • NLLB
  • Seq2Seq
Архитектуры Seq2Seq в трансформерах
Изучите encoder-decoder-архитектуру на примере T5 и русскоязычных аналогов. Разберёте cross-attention, teacher forcing, метрики BLEU и ROUGE. Научитесь применять T5 к задаче QA и рассмотрите ключевые бенчмарки.
NER как задача Seq2Seq
Поймёте, как сформулировать NER как генеративную задачу с использованием Seq2Seq-моделей. Разберёте constrained decoding, настройку вывода и токенизатора. Ознакомитесь с плюсами подхода и типовыми ошибками.
Машинный перевод
Рассмотрите эволюцию от классических RNN‑методов к трансформерам и мультиязычным моделям (NLLB). Изучите метрики (BLEU, chrF, COMET), проблемы данных и подходы к улучшению (back‑translation, paraphrasing). Поймёте, как адаптировать модели под домены.
Проработаете пайплайн и архитектуру, проанализируете результаты для доменной адаптации в машинном переводе
4
1 проект・2 недели
RAG и мультимодальные модели
  • RAG
  • ANN
  • FAISS
  • BM25
  • Elasticsearch
  • CLIP
  • SigLIP
Retrieval-Augmented Generation (RAG)
Разберёте архитектуру RAG как способ преодоления ограничений контекста и галлюцинаций в LLM. Изучите dual encoder и cross‑encoder для поиска, векторные индексы (FAISS, Qdrant и другие), LangChain и Haystack для сборки пайплайна.
Полнотекстовый и гибридный поиск
Погрузитесь в основы BM25, рассмотрите Elasticsearch/OpenSearch и их ограничения. Научитесь строить гибридные пайплайны, такие как поиск, reranking через cross-encoder, генерация ответа с LLM.
Мультимодальные модели
Рассмотрите CLIP: структуру, обучение, ограничения. Узнаете про альтернативы (SigLIP) и задачу мультимодального QA.
Построите RAG‑модель для внутренней документации
Получите сертификат о повышении квалификации
Это официальный документ установленного образца, который принимают работодатели
Как устроен курс
YandexGPT помогает учиться
Когда в теории что-то непонятно, нейросеть объяснит это другими словами. А в конце каждого урока подготовит краткий пересказ о самом главном.
Ещё у нас есть курс по компьютерному зрению
Освоите детекцию объектов, генерацию изображений и работу с видеопотоком — и сможете создавать модели для анализа и интерпретации визуальной информации

Посмотреть курс
Этот курс может оплатить
ваш работодатель
Полностью или разделив оплату с вами,
например 50/50 или 75/25
  • Расскажем всё про курс
  • Сообщим стоимость
  • Ответим на ваши вопросы
  • Подготовим договор и счёт

Если у вас есть вопросы про учёбу, оставьте заявку — мы позвоним

Отвечаем на вопросы
Каким требованиям нужно соответствовать?
Программа рассчитана на специалистов, у которых уже есть опыт работы с нейросетями.

Для успешного обучения на курсе нужны:
  • Навыки программирования на Python, включая знание ООП.
  • Опыт в анализе данных, их визуализации и манипулировании ими.
  • Базовые знания по математике: о функциях, их формульном представлении и дифференцировании.
  • Базовые знания в линейной алгебре: о матрицах, их свойствах и типовых операциях с ними, таких как сложение, умножение, транспонирование.
  • Базовое понимание архитектур нейросетей, например Transformer.
  • Представление о работе с DL‑фреймворками, например PyTorch.
Кто будет меня учить?
Все наставники — практикующие специалисты: сотрудники Яндекса и других крупных компаний. Программу составляют опытные преподаватели и методисты, а ещё действующие специалисты Яндекса, Школы анализа данных и других лидеров технологической и образовательной индустрий.
Что делать, если я не справлюсь с нагрузкой?
Если случилось непредвиденное или понадобилось уделить больше времени закреплению материала, напишите своему куратору. Он поможет перенести дедлайн сдачи проекта или перевестись в более поздний поток. На общую стоимость курса это не повлияет.
Если не понравится, я могу вернуть деньги?
Конечно. Если поток ещё не стартовал, вернём всю сумму. Если учёба уже началась, придётся оплатить прошедшие дни со старта вашего первого потока — но мы вернём деньги за остаток курса. Более подробно рассказываем об этом в 7 пункте оферты.
Получу ли я какой-то документ после курса?
Да, для этого нужно закончить курс и выполнить все 4 проекта. Тогда выдадим вам сертификат о повышении квалификации в электронном виде.

А если не получится, по запросу выдадим электронную справку об обучении — с перечнем модулей, которые вы освоили.
Вы поможете сменить или найти работу?
На этом курсе не предусмотрена помощь с трудоустройством, поскольку он для действующих специалистов, у которых уже есть навыки поиска работы.

Но если у вас появится вопрос о карьерном развитии, обратитесь в нашу службу поддержки — постараемся ответить.
Как можно оплатить?
Банковской картой: внести всю сумму сразу или платить ежемесячно.

Ежемесячные платежи работают так: вы вносите первую оплату, и в этот момент привязывается карта. С этой карты автоматически будут списываться следующие платежи каждые 30 календарных дней. Например, оплатили 25 марта — следующий платёж пройдёт 24 апреля. Обучение будет стоить меньше, если оплатить весь курс сразу.

Через компанию: юридические лица также могут оплатить обучение в Практикуме. Чтобы заказать счёт для оплаты, оставьте заявку на странице для корпоративных клиентов.
На каком языке проходит обучение?
Всё будет на русском: теория, практические задания и вебинары, а ещё чаты с куратором, наставником и другими студентами.

Давайте поможем

Напишите, как вас зовут и по какому номеру можно связываться, — в течение 30 минут позвоним и расскажем всё про курсы