Базовый запрос
Все текстовые модели используют один эндпоинт с форматом сообщений, совместимым с OpenAI:
import requests
response = requests.post(
"https://neuralbox.top/api/v2/generate",
headers={"Authorization": "Bearer nb_YOUR_API_KEY"},
json={
"model": "gpt-5",
"messages": [
{"role": "system", "content": "Ты полезный ассистент."},
{"role": "user", "content": "Объясни квантовые вычисления простыми словами."}
]
}
)
print(response.json()["content"])
Выбор модели
| Задача | Рекомендуемая модель | Стоимость |
|---|
| Быстрые ответы, черновики | gpt-5-nano, claude-haiku-4.5 | 1 токен (Starter) |
| Быстрые рассуждения | deepseek-r1 | 1 токен |
| Генерация кода | gpt-5, deepseek-r1 | 1–2 токена |
| Длинные документы, анализ | claude-sonnet-4.5 | 4 токена |
| Сложные рассуждения | claude-opus-4.5 | 6 токенов |
| Творческое письмо | gpt-5, gpt-5.2 | 2–4 токена |
| Многоязычный | gemini-3-pro | 3 токена |
Starter-модели (gpt-5-nano, claude-haiku-4.5, gemini-2.5-flash, deepseek-v3, grok-4-fast) доступны без подписки. Переходите на платные модели, когда нужно качество выше.
Полный справочник моделей
| Слаг | Название | Тариф | Токенов |
|---|
gpt-5-nano | GPT-5 Nano | Starter | 1 |
claude-haiku-4.5 | Claude Haiku 4.5 | Starter | 1 |
gemini-2.5-flash | Gemini 2.5 Flash | Starter | 1 |
deepseek-v3 | DeepSeek V3 Chat | Starter | 1 |
grok-4-fast | Grok 4 Fast | Starter | 1 |
gpt-5 | GPT-5 | Basic+ | 2 |
deepseek-r1 | DeepSeek R1 | Basic+ | 1 |
gpt-5.2 | GPT-5.2 | Basic+ | 4 |
claude-sonnet-4.5 | Claude Sonnet 4.5 | Basic+ | 4 |
gemini-3-pro | Gemini 3 Pro | Basic+ | 3 |
claude-opus-4.5 | Claude Opus 4.5 | Basic+ | 6 |
gpt-5.2-pro | GPT-5.2 Pro | Basic+ | 39 |
Системные промпты
Используйте роль system для задания контекста и поведения модели:
messages = [
{
"role": "system",
"content": "Ты профессиональный копирайтер. Пиши кратко и увлекательно. Всегда отвечай на языке пользователя."
},
{
"role": "user",
"content": "Придумай слоган для приложения по управлению проектами."
}
]
Многоходовые диалоги
Передавайте полную историю разговора в массиве messages:
messages = [
{"role": "user", "content": "Какая столица Франции?"},
{"role": "assistant", "content": "Столица Франции — Париж."},
{"role": "user", "content": "Какое там население?"}
]
Стриминг
Добавьте "stream": true для получения токенов по мере генерации:
response = requests.post(
"https://neuralbox.top/api/v2/generate/stream",
headers={"Authorization": "Bearer nb_YOUR_API_KEY"},
json={
"model": "claude-sonnet-4.5",
"messages": [{"role": "user", "content": "Напиши короткий рассказ."}],
"stream": True
},
stream=True
)
for line in response.iter_lines():
if line:
print(line.decode())
Справочник параметров
| Параметр | Тип | По умолчанию | Описание |
|---|
model | string | обязательный | Слаг модели |
messages | array | обязательный | История диалога |
max_tokens | integer | по умолч. модели | Максимум токенов в ответе |
temperature | float | 1.0 | Креативность (0 = детерминированный, 2 = очень творческий) |
stream | boolean | false | Включить стриминг |
Формат ответа
{
"id": "gen_01j9x2abc123",
"status": "completed",
"type": "text",
"model": "gpt-5",
"content": "Квантовые вычисления используют квантовые биты (кубиты)...",
"tokens_used": 2,
"balance_remaining": 298,
"created_at": "2026-03-01T12:00:00Z"
}