G
enby!

Ryzen 9950X или EPYC - Что Лучше для LLaMA cpp в 2025 ?

В этом видео мы протестируем инференс нейросетей на процессоре AMD Ryzen 9 9950X с использованием llama.cpp. Мы проверим, как современный десктопный CPU справляется с локальным запуском ИИ по сравнению с серверным 32-ядерным EPYC 7542, и насколько помогают AVX-512 инструкции ускорить работу моделей. Мы запускали локальные LLM (Qwen3-30B, GPT-OSS-120B, GLM-4.5-Air, LLaMA-4-Scout, Gemma-3, Qwen3-Coder) и замерили производительность при разных конфигурациях памяти: от 96 ГБ (2×48) до 128 ГБ (4×32). Выяснилось, что Ryzen 9950X действительно способен тянуть инференс ИИ, а в ряде сценариев он становится достойной альтернативой серверным CPU. Главные результаты тестов: AVX-512 ускоряет инференс на Ryzen примерно на 15% Односокетная система Ryzen 9 9950X с 128 ГБ памяти подходит как полноценный тестовый полигон для ИИ llama.cpp работает стабильно даже на CPU без GPU, но в связке с видеокартой производительность растёт заметно Этот ролик будет полезен тем, кто ищет, как запускать локальный ИИ на ПК, хочет понять возможности инференса без GPU и сравнить Ryzen 9950X с EPYC в задачах работы с крупными моделями. Наш сайт - https://serverflow.ru/
Блог ServerFlow - https://serverflow.ru/blog/
Таймкоды: 0:00 Вступление 1:09 Конфигурация сервера 1:45 Немного про GPU ускорение с Tesla V100 2:39 Бенчмарки в llama.cpp 4:39 Заключение

Смотрите также