Skip to content
Эта страница создана и переведена с помощью ИИ. Если вы заметили неточности, помогите нам улучшить её. Редактировать на GitHub

OpenAI

Доступ к моделям GPT через OpenAI Chat Completions API с нативным вызовом функций, зрением и поддержкой моделей рассуждения.

Предварительные требования

Быстрая настройка

1. Получение API-ключа

  1. Зарегистрируйтесь на platform.openai.com
  2. Перейдите в API Keys в левой боковой панели
  3. Нажмите Create new secret key и скопируйте его (начинается с sk-)

2. Конфигурация

toml
[default]
provider = "openai"
model = "gpt-4o"

[providers.openai]
api_key = "${OPENAI_API_KEY}"

Или задайте переменную окружения:

bash
export OPENAI_API_KEY="sk-..."

3. Проверка

bash
prx doctor models

Доступные модели

МодельКонтекстЗрениеВызов инструментовПримечания
gpt-4o128KДаДаЛучшая модель общего назначения
gpt-4o-mini128KДаДаМеньше, быстрее, дешевле
gpt-4-turbo128KДаДаПредыдущее поколение флагмана
o3128KДаДаМодель рассуждения
o4-mini128KДаДаМалая модель рассуждения
gpt-48KНетДаОригинальный GPT-4

Справочник конфигурации

ПолеТипПо умолчаниюОписание
api_keystringобязательныйAPI-ключ OpenAI (sk-...)
api_urlstringhttps://api.openai.com/v1Пользовательский базовый URL API
modelstringgpt-4oМодель по умолчанию

Возможности

Нативный вызов функций

PRX отправляет инструменты в нативном формате function OpenAI. Определения инструментов включают name, description и parameters (JSON Schema). Провайдер поддерживает tool_choice: "auto" для автоматического выбора инструмента.

Зрение

Модели с поддержкой зрения (GPT-4o, GPT-4o-mini) могут анализировать изображения, включённые в разговор. Изображения отправляются встроенными через стандартный формат сообщений.

Поддержка моделей рассуждения

Для моделей рассуждения (o1, o3, o4-mini) PRX автоматически обрабатывает резервный reasoning_content. Когда модель возвращает вывод в reasoning_content вместо content, PRX прозрачно извлекает текст рассуждения.

Многоходовые разговоры

Полная история разговора сохраняется и отправляется в API, включая системные промпты, сообщения пользователя, ответы ассистента и пары вызов инструмента/результат в нативном структурированном формате OpenAI.

Пользовательский базовый URL

Для использования прокси, Azure OpenAI или любого OpenAI-совместимого эндпоинта:

toml
[providers.openai]
api_key = "${OPENAI_API_KEY}"
api_url = "https://my-proxy.example.com/v1"

Прогрев соединения

При запуске PRX отправляет лёгкий запрос GET /models для установки TLS и пула HTTP/2-соединений, снижая задержку при первом реальном запросе.

Устранение неполадок

«OpenAI API key not set»

Задайте переменную окружения OPENAI_API_KEY или добавьте api_key в секцию [providers.openai] вашего config.toml.

429 Rate Limit

OpenAI ограничивает количество токенов и запросов в минуту. Решения:

  • Подождать и повторить (PRX обрабатывает это автоматически через обёртку reliable provider)
  • Повысить план OpenAI для увеличения лимитов
  • Использовать fallback_providers для отката к другому провайдеру при ограничении частоты

Пустой ответ от моделей рассуждения

При использовании o1/o3/o4-mini и получении пустых ответов — это ожидаемое поведение, когда вывод модели полностью находится в reasoning_content. PRX автоматически использует reasoning_content, когда content пуст.

Released under the Apache-2.0 License.