Требования к аппаратному обеспечению для DeepSeek-R1 70B
Для желающих поиграть с deepseek
Жирная конечно моделька. Оригинал тут: https://dev.to/askyt/deepseek-r1-70b-hardware-requirements-1kd0
Компонент | Требование |
GPU | Система с несколькими GPU, где каждая GPU имеет не менее 32 ГБ видеопамяти (VRAM) (например, NVIDIA A100 80GB x16) |
ОЗУ | Минимум 64 ГБ системной памяти |
ЦП | Высокопроизводительный многоядерный процессор (например, AMD EPYC или Intel Xeon) |
Как установить DeepSeek-R1 70B локально на Windows
0. Берем две ипотеки, страхуем жизни, умираем, родственник получает страховку, покупает 16 карт a100 и следует инструкции далее:

1. Установка Подсистемы Windows для Linux (WSL):
- Убедитесь, что WSL включена в вашей системе Windows.
- Установите дистрибутив Linux из Microsoft Store (например, Ubuntu).
2. Настройка окружения:
- Откройте терминал WSL.
- Обновите списки пакетов:
sudo apt-get update
- Установите необходимые зависимости:
sudo apt-get install -y git-lfs python3-pip
3. Клонирование репозитория DeepSeek-R1:
- Установите Git Large File Storage (Git LFS):
git lfs install
- Клонируйте репозиторий:
git clone https://huggingface.co/deepseek-ai/DeepSeek-R1
cd DeepSeek-R1
4. Настройка виртуального окружения Python:
- Установите virtualenv:
pip3 install virtualenv
- Создайте и активируйте виртуальное окружение:
virtualenv venv
source venv/bin/activate
5. Установка зависимостей Python:
- Внутри виртуального окружения установите необходимые пакеты:
pip install -r requirements.txt
6. Настройка поддержки GPU:
- Убедитесь, что драйверы вашей GPU обновлены в Windows.
- Установите CUDA и cuDNN, совместимые с вашей GPU.
- Убедитесь, что GPU доступна в WSL.
7. Запуск модели:
- Выполните скрипт вывода модели:
python run_inference.py --model_path ./DeepSeek-R1
Оригинал: https://apxml.com/posts/gpu-requirements-deepseek-r1
DeepSeek-R1 и связанные с ним модели представляют собой новый эталон в машинном мышлении и производительности искусственного интеллекта в больших масштабах. Эти модели, особенно DeepSeek-R1-Zero и DeepSeek-R1, установили новые стандарты в рассуждениях и решении задач. Благодаря открытому доступу к этим передовым инструментам разработчики и исследователи могут использовать их мощь, только если их оборудование соответствует требованиям.
Это руководство предоставляет подробный анализ GPU-ресурсов, необходимых для эффективной работы DeepSeek-R1 и его различных вариаций.
Обзор DeepSeek-R1
DeepSeek-R1-Zero был обучен с использованием масштабного обучения с подкреплением (RL) без контролируемой тонкой настройки, демонстрируя исключительную производительность в рассуждениях. Будучи мощным, он сталкивался с проблемами, такими как повторы и читаемость. DeepSeek-R1 решил эти проблемы, включив данные “холодного старта” перед RL, улучшив производительность в задачах математики, кодирования и рассуждений.
И DeepSeek-R1-Zero, и DeepSeek-R1 демонстрируют передовые возможности, но требуют значительного аппаратного обеспечения. Квантование и распределенные GPU-конфигурации позволяют им обрабатывать огромное количество параметров.
Требования к VRAM для DeepSeek-R1
Размер модели, количество ее параметров и методы квантования напрямую влияют на требования к VRAM. Вот подробная разбивка потребностей в VRAM для DeepSeek-R1 и его дистиллированных моделей, а также рекомендуемые GPU:
Полная модель
Модель | Параметры (B) | Требования к VRAM (ГБ) | Рекомендуемый GPU |
DeepSeek-R1-Zero | 671B | ~1,543 ГБ | Система с несколькими GPU (например, NVIDIA A100 80GB x16) |
DeepSeek-R1 | 671B | ~1,543 ГБ | Система с несколькими GPU (например, NVIDIA A100 80GB x16) |
DeepSeek-R1-Distill-Qwen-1.5B | 1.5B | ~3.9 ГБ | NVIDIA RTX 3060 12GB или выше |
DeepSeek-R1-Distill-Qwen-7B | 7B | ~18 ГБ | NVIDIA RTX 4090 24GB или выше |
DeepSeek-R1-Distill-Llama-8B | 8B | ~21 ГБ | NVIDIA RTX 4090 24GB или выше |
DeepSeek-R1-Distill-Qwen-14B | 14B | ~36 ГБ | Система с несколькими GPU (например, NVIDIA RTX 4090 x2) |
DeepSeek-R1-Distill-Qwen-32B | 32B | ~82 ГБ | Система с несколькими GPU (например, NVIDIA RTX 4090 x4) |
DeepSeek-R1-Distill-Llama-70B | 70B | ~181 ГБ | Система с несколькими GPU (например, NVIDIA A100 80GB x3) |
Квантованные модели
Ниже приведена разбивка требований к VRAM для 4-битного квантования моделей DeepSeek-R1:
Модель | Параметры (B) | Требования к VRAM (ГБ) (4-бит) | Рекомендуемый GPU |
DeepSeek-R1-Zero | 671B | ~436 ГБ | Система с несколькими GPU (например, NVIDIA A100 80GB x6) |
DeepSeek-R1 | 671B | ~436 ГБ | Система с несколькими GPU (например, NVIDIA A100 80GB x6) |
DeepSeek-R1-Distill-Qwen-1.5B | 1.5B | ~1 ГБ | NVIDIA RTX 3050 8GB или выше |
DeepSeek-R1-Distill-Qwen-7B | 7B | ~4.5 ГБ | NVIDIA RTX 3060 12GB или выше |
DeepSeek-R1-Distill-Llama-8B | 8B | ~5 ГБ | NVIDIA RTX 3060 12GB или выше |
DeepSeek-R1-Distill-Qwen-14B | 14B | ~9 ГБ | NVIDIA RTX 4080 16GB или выше |
DeepSeek-R1-Distill-Qwen-32B | 32B | ~21 ГБ | NVIDIA RTX 4090 24GB или выше |
DeepSeek-R1-Distill-Llama-70B | 70B | ~46 ГБ | Система с несколькими GPU (например, NVIDIA RTX 4090 24GB x2) |
Примечания по использованию VRAM
- Для больших моделей требуется распределенная GPU-конфигурация:** DeepSeek-R1-Zero и DeepSeek-R1 требуют значительного объема VRAM, что делает обязательным использование распределенных GPU-конфигураций (например, NVIDIA A100 или H100 в конфигурациях с несколькими GPU) для эффективной работы.
- GPU с более низкими спецификациями:** Модели все еще могут работать на GPU с более низкими спецификациями, чем указано выше, при условии, что GPU соответствует или превышает требования к VRAM. Однако такая конфигурация не будет оптимальной и, вероятно, потребует некоторой настройки, такой как регулировка размеров пакетов и настроек обработки.
Когда выбирать дистиллированные модели
Для разработчиков и исследователей, не имеющих доступа к высокопроизводительным GPU, отличной альтернативой являются дистиллированные модели DeepSeek-R1-Distill. Эти дистиллированные версии DeepSeek-R1 разработаны для сохранения значительных возможностей рассуждения и решения задач, при этом уменьшая размеры параметров и вычислительные требования.
Преимущества дистиллированных моделей
- Сниженные аппаратные требования:** Благодаря требованиям к VRAM, начиная с 3.5 ГБ, дистиллированные модели, такие как DeepSeek-R1-Distill-Qwen-1.5B, могут работать на более доступных GPU.
- Эффективные, но мощные:** Дистиллированные модели сохраняют надежные возможности рассуждения, несмотря на меньший размер, часто превосходя модели аналогичного размера из других архитектур.
- Экономичное развертывание:** Дистиллированные модели позволяют экспериментировать и развертывать на менее мощном оборудовании, экономя затраты на дорогие много-GPU системы.
Рекомендации
- Для High-End GPU:**
Если у вас есть доступ к распределенным много-GPU конфигурациям со значительным объемом VRAM (например, NVIDIA A100 80GB x16), вы можете запускать полномасштабные модели DeepSeek-R1 для достижения наивысшей производительности.
- Для смешанных рабочих нагрузок:**
Рассмотрите возможность использования дистиллированных моделей для начальных экспериментов и приложений меньшего масштаба, оставляя полномасштабные модели DeepSeek-R1 для производственных задач или когда критична высокая точность.
- Для ограниченных ресурсов:**
Используйте дистиллированные модели, такие как 14B или 32B (4-битные). Эти модели оптимизированы для конфигураций с одним GPU и могут обеспечить приличную производительность по сравнению с полной моделью при гораздо меньших требованиях к ресурсам.
- Для очень ограниченных ресурсов:**
Используйте 7B, если они хорошо справляются с вашей задачей. Они могут работать быстро, но их ответы часто оказываются некачественными или неверными. Однако это может зависеть от вашего сценария использования, поскольку они могут хорошо работать для конкретных задач классификации.
Заключение
DeepSeek-R1 представляет собой значительный скачок вперед в производительности моделей ИИ, предназначенных для рассуждений, но эта мощь предъявляет и высокие требования к аппаратным ресурсам. Распределенные GPU-системы необходимы для запуска таких моделей, как DeepSeek-R1-Zero, в то время как дистиллированные модели предлагают доступную и эффективную альтернативу для тех, у кого ограничены вычислительные ресурсы.
Понимая и согласуя свою GPU-конфигурацию с требованиями модели, вы сможете полностью использовать потенциал DeepSeek-R1 для исследований, продвинутых рассуждений или задач решения проблем.
Эхх 😩

и зерно

но
