Лекция 6 - Начало трансформеров - Егор Гречин

Тема: Начало трансформеров Лектор: Егор Гречин Поговорим о том, как Transformer навсегда изменил обработку естественного языка: от механизма внимания (Self-Attention) до архитектуры encoder–decoder. Разберёмся, почему Transformer вытеснил RNN и LSTM, как работает Multi-Head attention и почему BERT и GPT - не одно и то же, хоть и имеют общую архитектуру. 📍 TG канал AI Knowledge Club: https://t.me/aiknowledgeclub 📍 TG чат AI Knowledge Club: https://t.me/+vEZLTQ9wWT44OTRi 📍 Ссылка на Презентацию и материалы: https://github.com/AI-Knowledge-Club/DL-Course-2025/tree/main/Lesson_6

12+
3 месяца назад
12+
3 месяца назад

Тема: Начало трансформеров Лектор: Егор Гречин Поговорим о том, как Transformer навсегда изменил обработку естественного языка: от механизма внимания (Self-Attention) до архитектуры encoder–decoder. Разберёмся, почему Transformer вытеснил RNN и LSTM, как работает Multi-Head attention и почему BERT и GPT - не одно и то же, хоть и имеют общую архитектуру. 📍 TG канал AI Knowledge Club: https://t.me/aiknowledgeclub 📍 TG чат AI Knowledge Club: https://t.me/+vEZLTQ9wWT44OTRi 📍 Ссылка на Презентацию и материалы: https://github.com/AI-Knowledge-Club/DL-Course-2025/tree/main/Lesson_6

, чтобы оставлять комментарии