Инженерия ИИ №1: Внимание — это всё, что вам нужно
На этом занятии мы рассмотрим механизм внимания, используемый трансформерами для улучшения входного контекста. Мы выберем несколько примеров текстовых входных данных, посмотрим, как трансформер анализирует и преобразует строку в токены, чтобы в конечном итоге вывести текстовую последовательность токен за токеном. 1. Как тексты анализируются в токены 2. Как добавляется контекст с помощью механизма внимания 3. Почему механизм внимания работает так хорошо 00:00 Повестка дня 00:40 Пример - 1 04:04 Функции слов 12:00 Механизм внимания 24:11 Результат внимания 27:35 Пример - 2 29:56 Визуальное понимание 33:40 Вопросы и ответы Чтобы быть в курсе последних новостей о занятиях, подпишитесь на канал! Вы можете найти меня здесь: Сайт: https://interviewready.io/
Твиттер: http://x.com/gkcs_
LinkedIn: / gkcs #AI #ResearchPaper