Последние темы автора:
- [Юлия Золотухина] [Шитье] Трикотажный бомбер (2024)
- [Наталья Зуева] Идеальные сумки (2024)
- [Даан Ван Кампенхаут] Обучающая программа Даана Ван Кампенхаута. Модуль 2: Поток времени (2024)
- [Лана Карлен] Законы денег. Часть 1 (2024)
- [Юлия Зайцева] [maika_polosataya] [Ватные игрушки] Рецепт «La Doll» и «Jovi» своими руками (2024)
[Stepik] Трансформеры в NLP и приложениях (2024)
Курс посвящен трансформерам - самой востребованной архитектуре нейронных сетей для решения задач в области NLP и приложениях. На курсе подробно разобрано теоретическое устройство трансформеров, много практики на Python, а также проектное задание: сервис, реализующий применение трансформера для решения NLP-задачи.
Разберетесь в теоретическом устройстве механизма внимания
Узнаете как работают трансформеры
Научитесь обучать трансформеры на PyTorch самостоятельно
Познакомитесь с библиотекой huggingface
Создадите приложение при помощи streamlit
В курсе подробно разобрана схема работы механизма внимания и различные архитектуры трансформеров. Кроме теории в курсе много практических заданий, требующих использования библиотеки PyTorch. На протяжении курса слушатели будут работать над проектом - обучат трансформер для решения NLP-задачи и представят решение в виде готового веб-приложения.
Также в курсе разобраны различные задачи из области NLP, для успешного решения которых необходимы трансформерные архитектуры.
Курс подойдет слушателям, увлеченным областью NLP и Deep Learning в целом. Мы ожидаем, что слушатели знакомы с классическими ML- и DL-моделями, а также имеют хороший опыт обучения моделей в Python.
Начальные требования
Для успешного прохождения курса от участников ожидается знание классических алгоритмов машинного обучения и базовых DL-архитектур, а также умение обучать ML- и DL-модели в Python.
Рекомендуются к прохождению первые два курс из линейки: "Основы нейронных сетей и NLP" и "Рекуррентные сети в NLP и приложениях".
Ваш преподаватель: Елена Кантонистова
Кандидат физико-математических наук, выпускница школы анализа данных Яндекса (ШАД)
Подробнее:
Описание курса:
Курс посвящен трансформерам - самой востребованной архитектуре нейронных сетей для решения задач в области NLP и приложениях. На курсе подробно разобрано теоретическое устройство трансформеров, много практики на Python, а также проектное задание: сервис, реализующий применение трансформера для решения NLP-задачи.
Чему вы научитесь
Разберетесь в теоретическом устройстве механизма внимания
Узнаете как работают трансформеры
Научитесь обучать трансформеры на PyTorch самостоятельно
Познакомитесь с библиотекой huggingface
Создадите приложение при помощи streamlit
В курсе подробно разобрана схема работы механизма внимания и различные архитектуры трансформеров. Кроме теории в курсе много практических заданий, требующих использования библиотеки PyTorch. На протяжении курса слушатели будут работать над проектом - обучат трансформер для решения NLP-задачи и представят решение в виде готового веб-приложения.
Также в курсе разобраны различные задачи из области NLP, для успешного решения которых необходимы трансформерные архитектуры.
Для кого этот курс
Курс подойдет слушателям, увлеченным областью NLP и Deep Learning в целом. Мы ожидаем, что слушатели знакомы с классическими ML- и DL-моделями, а также имеют хороший опыт обучения моделей в Python.
Начальные требования
Для успешного прохождения курса от участников ожидается знание классических алгоритмов машинного обучения и базовых DL-архитектур, а также умение обучать ML- и DL-модели в Python.
Рекомендуются к прохождению первые два курс из линейки: "Основы нейронных сетей и NLP" и "Рекуррентные сети в NLP и приложениях".
Программа курса
- О курсе
- NLP: recap
- Введение в PyTorch
- Attention
- Трансформеры: теория
- Трансформеры: практика
- Библиотека Huggingface для решения задач NLP
- Решение различных задач NLP
- Проект по курсу
Ваш преподаватель: Елена Кантонистова
Кандидат физико-математических наук, выпускница школы анализа данных Яндекса (ШАД)
Подробнее:
Для просмотра ссылок пройдите регистрацию