Установка и развертывание
Compressa LLM распространяется в виде Docker-контейнеров, которые доступны в Github package storage и могут быть развернуты одной командой.
Требования
1. Linux-сервер с поддерживаемым Nvidia GPU
Текущая версия протестирована на следующих моделях:
- Nvidia H100
- Nvidia A100
- Nvidia V100
- Nvidia T4
- Nvidia 4090
- Nvidia 4080
- Nvidia 4070 / 4070Ti
- Nvidia 3080 / 3080Ti
На GPU старше Nvidia A100 не гарантируется работа всех доступных движков инференса и всех моделей.
Сервер должен иметь объем оперативной памяти не мен ее объема памяти GPU (рекомендуется 1.2 от объема памяти GPU).
2. Установленные драйверы CUDA
Необходимо установить последние совместимые драйвера.
Версию драйвера CUDA по умолчанию можно установить с помощью следующих команд:
sudo apt update
sudo apt install software-properties-common -y
sudo apt install ubuntu-drivers-common -y
sudo ubuntu-drivers autoinstall
sudo apt install nvidia-cuda-toolkit
3. Docker
Инструкция по установке для Ubuntu:
https://docs.docker.com/engine/install/ubuntu/
Необходимо установить версию, которая поддерживает Docker Compose V2.
4. Nvidia Container Toolkit
Инструкция по установке для Linux:
https://docs.nvidia.com/datacenter/cloud-native/container-toolkit/latest/install-guide.html
Развертывание
1. Аутентификация в Docker:
export PAT=<TOKEN>
echo $PAT | docker login -u compressa --password-stdin
2. Файлы конфигурации:
Сначала клонируйте репозиторий с конфигурацией:
git clone git@github.com:compressa-ai/compressa-deploy.git
cd pod