Fine-tuning
Платформа Compressa позволяется дообучить LLM модель быстро и эффективно с помощью LoRA/QLoRA адаптеров. Дообучение позволяет улучшить качество ответов на конкретной бизнес-задаче, сфокусировать на определенной теме или задать формат/стиль ответов.
Важно! Дообучение модели доступно только в on-premise версии платформы, запущенной на ваших серверах.
Прежде чем переходить к дообучению, рекомендуется провести эксперименты с выбором оптимальной модели и подбором промптов.
Подготовка данных
Для дообучения вам понадобятся диалоговые данные. Вам необходимо:
-
Подготовить примеры целевых диалогов
-
Отформатировать их в формате JSON Lines, где каждая строка содержит следующий контент:
Compressa allows to fine-tune models on chat data. To start the process you should:
- Prepare conversation examples
- Format them into JSON Lines format with the next content on each line:
{
"messages": [
{
"role": "user",
"content": "<USER MESSAGE 1>"
},
{
"role": "bot",
"content": " <BOT'S RESPONSE>"
},
{
"role": "user",
"content": "<USER MESSAGE 2>"
},
{
"role": "bot",
"content": " <BOT'S RESPONSE2>"
},
]
}