Простой запуск ML моделей в облаке: как сэкономить до 70 ресурсов
☁️ Часто ресурсы GPU используются неоптимально, например, когда мощные графические процессоры выполняют небольшие задачи. На вебинаре мы покажем, как можно эффективнее организовать работу с GPU с помощью Evolution ML Inference. Сервис позволяет запускать несколько моделей на одном GPU, автоматически масштабирует ресурсы и сокращает расходы до 70%. ☁️ Тайм-коды: 01:44 Как IT-специалисты используют AI на практике 03:50 Варианты развертывания LLM/AI-моделей 05:31 Плюсы и минусы on-premise, LLM, публичного облака 11:03 Сервисы для работы с моделями в Cloud.ru Evolution 20:01 Как выглядит инференс в облаке 25:39 Вариация сервиса Evolution ML Inference – Docker RUN 27:26 Shared GPU 31:26 Severless режим (скейлинг в ноль) 36:11 Ответы на вопросы 39:31 Демо Evolution ML Inference 47:57 Ответы на вопросы, контакты спикера для связи ☁️ Вебинар будет полезен дата-сайентистам, DevOps-инженерам и руководителям, которые хотят оптимизировать затраты на ML-инфраструктуру. 📍Облачные сервисы Cloud.ru: https://clck.ru/3FQ3je
📍Делимся полезными рекомендациями в TG-канале: https://t.me/cloudruprovider
📍 Блог Cloud․ru: https://clck.ru/3FPxqG
Смотрите также
