Перейти к основному содержимому

Быстрый старт

Для создания первого запроса к платформе Compressa у вас должно быть выполнено одно из двух условий:

  • При использовании облачной версии: Вы уже получили API ключ. Если еще нет — заполните специальную форму.
  • При использовании on-prem версии: Вы уже развернули платформу на своих серверах и создали собственные API ключи. Если еще нет — перейдите в специальный раздел (для локального запуска требуется лицензия).

Вы можете начать разработку на платформе через наше облако, при этом вам практически не придется менять код при переезде на свой сервер.

Первый запрос

Давайте попробуем сделать наш первый запрос. Для этого спросим что-нибудь у нашей LLM модели:

#pip install openai - если у вас еще нет этого пакета

from openai import OpenAI

client = OpenAI(
base_url="https://compressa-api.mil-team.ru/v1", #при локальном запуске замените на ваш url, например http://localhost:8080/api/v1/chat/completions
api_key="ваш API ключ Compressa" #при локальном запуске вы можете не требовать ключ или создать свой
)

chat_completion = client.chat.completions.create(
model="Compressa-LLM",
messages=[
{"role": "system", "content": "Ты полезный ассистент."},
{"role": "user", "content": "Напиши хайку про искусственный интеллект."},
],
stream=False,
)
print(chat_completion.choices[0].message.content)

#Искусственный ум,
#Помощник в цифровом мире,
#Живёт в коде.

Дальнейшие шаги

После первого успешного запроса вы можете ознакомиться подробнее с разными модулями внутри платформы: