G
enby!

Машинный перевод seq2seq: и как обучить модель понимать языки // «NLP / Natural Language Processing»

На данном открытом уроке мы: Познакомимся с архитектурой seq2seq и ее применением в задачах машинного перевода Разберем архитектуру энкодер-декодер, её основные компоненты и как она используется для перевода текста. Изучим концепцию attention mechanism и его влияние на повышение качества машинного перевода. Данный вебинар будет особенно интересен: Дата-сайентистам и аналитикам данных, которые хотят углубиться в задачи обработки естественного языка. Специалистам по машинному обучению, заинтересованным в работе с текстовыми данными и моделями перевода. Всем, кто изучает современные технологии искусственного интеллекта и их применение в реальных задачах. В результате вебинара слушатели: Узнают, как работает архитектура seq2seq и как она решает задачи машинного перевода. Поймут, как attention mechanism улучшает качество перевода и как его можно применить в своих проектах. «NLP / Natural Language Processing» - https://otus.pw/Ztw7/
Преподаватель: Дмитрий Гайнуллин - Machine Learning Engineer в AIC Пройдите опрос по итогам мероприятия - https://otus.pw/Sckp/
Следите за новостями проекта: Telegram: https://t.me/Otusjava
ВКонтакте: https://otus.pw/850t
LinkedIn: https://otus.pw/yQwQ/
Хабр: https://otus.pw/S0nM/

Смотрите также