Fine-tuning
Платформа Compressa позволяется дообучить LLM модель быстро и эффективно с помощью LoRA/QLoRA адаптеров. Дообучение позволяет улучшить качество ответов на конкретной бизнес-задаче, сфокусировать на определенной теме или задать формат/стиль ответов.
Важно! Дообучение модели доступно только в on-premise версии платформы, запущенной на ваших серверах.
Прежде чем переходить к дообучению, рекомендуется провести эксперименты с выбором оптимальной модели и промптингом.
Подготовка данных
Для дообучения вам понадобятся диалоговые данные. Вам необходимо:
-
Подготовить примеры целевых диалогов
-
Отформатировать их в формате JSON Lines, где каждая строка содержит следующий контент:
Compressa allows to fine-tune models on chat data. To start the process you should:
- Prepare conversation examples
- Format them into JSON Lines format with the next content on each line:
{
"messages": [
{
"role": "user",
"content": "<USER MESSAGE 1>"
},
{
"role": "bot",
"content": " <BOT'S RESPONSE>"
},
{
"role": "user",
"content": "<USER MESSAGE 2>"
},
{
"role": "bot",
"content": " <BOT'S RESPONSE2>"
},
]
}
Каждый диалог может включать любое количество сообщений. Для эффективного дообучения набор данных должен содержать не менее 100 примеров.
Дообучение
После подготовки данных можно запустить процесс обучения через UI интерфейс Compressa Fine-tuning или с использованием REST API. Ниже мы рассмотрим оба этих варианта.