Перейти к основному содержимому

Дополнительные возможности

Для модели Qwen3 доступны дополнительные возможности, расширяющие функционал LLM и дающие больше возможностей для использования. Примеры использования могут несколько отличаться от официальной документации OpenAI и приведены ниже.

Structured Output

Получение ответа от LLM в виде заранее определенной схемы данных.

from langchain_openai import ChatOpenAI
from pydantic import BaseModel

class User(BaseModel):
name: str
age: int

message = "Hello, I'm John and I'm 25 years old"
url = "http://localhost:5000/v1/"

client = ChatOpenAI(
model="Compressa-LLM",
api_key="TOKEN_1",
base_url=url,
)
struct_model = client.with_structured_output(User, method="function_calling")

response = struct_model.invoke([
{"role": "system", "content": "/think" },
{"role": "user", "content": message },
], tool_choice="auto", extra_body={"chat_template_kwargs": {"thinking": False}})
print(response.name, response.age)

Пример для ChatQwen