Настройка
Compressa LLM распространяется в виде Docker-контейнеров, которые доступны в Github package storage и могут быть развернуты одной командой.
Требования
1. Linux-сервер с поддерживаемым Nvidia GPU
Текущая версия протестирована на следующих моделях:
- Nvidia H100
- Nvidia A100
- Nvidia V100
- Nvidia T4
- Nvidia 4090
- Nvidia 4080
- Nvidia 4070 / 4070Ti
- Nvidia 3080 / 3080Ti
Сервер должен иметь объем оперативной памяти не менее объема памяти GPU (рекомендуется 1.2 от объема памяти GPU).
2. Установленные драйверы CUDA
Необходимо установить последние совместимые драйвера.
Версию драйвера CUDA по умолчанию можно установить с помощью следующих команд:
sudo apt update
sudo apt install software-properties-common -y
sudo apt install ubuntu-drivers-common -y
sudo ubuntu-drivers autoinstall
sudo apt install nvidia-cuda-toolkit
3. Docker
Инструкция по установке для Ubuntu:
https://docs.docker.com/engine/install/ubuntu/
Необходимо установить версию, которая поддерживает Docker Compose V2.
4. Nvidia Container Toolkit
Инструкция по установке для Linux:
https://docs.nvidia.com/datacenter/cloud-native/container-toolkit/latest/install-guide.html
Развертывание
На первом этапе интеграции команда Compressa предоставляет вам токен доступа.
1. Аутентификация в Docker с вашим токеном:
export COMPRESSA_TOKEN=<TOKEN>
echo $COMPRESSA_TOKEN | docker login -u compressa --password-stdin
2. Файлы конфигурации:
Сначала клонируйте репозиторий с конфигурацией:
git clone -b deploy/llm git@github.com:compressa-ai/compressa-deploy.git
cd compressa-deploy
3. Скачайте последнюю версию Compressa:
docker compose pull
4. Выберите LLM
Система позволяет выбрать модель, которая будет запущена по умолчанию.
Конфигурационные файлы доступны:
deploy-qwen14.json
- Compressa-Qwen2.5-14B-Instructdeploy-qwq.json
- QwQ-32B
Для изменения модели по умолчанию, можно поменять следующую строку в docker-compose.yaml
:
...
- ./deploy-qwen14.json:/configs/deploy.json:ro