OpenAI Codex
Доступ к моделям Codex от OpenAI через ChatGPT Responses API с использованием OAuth2-аутентификации GitHub Copilot. Предоставляет доступ к моделям GPT-5.x Codex с возможностями рассуждения и нативным вызовом инструментов.
Предварительные требования
- Подписка ChatGPT Plus, Team или Enterprise
- Существующий OAuth2-токен Codex CLI или GitHub Copilot, или готовность выполнить поток
prx auth login
Быстрая настройка
1. Аутентификация
prx auth login --provider openai-codexЭто инициирует GitHub OAuth device flow и сохраняет токены в ~/.openprx/.
2. Конфигурация
[default]
provider = "openai-codex"
model = "gpt-5.3-codex"3. Проверка
prx doctor modelsДоступные модели
| Модель | Контекст | Зрение | Вызов инструментов | Примечания |
|---|---|---|---|---|
gpt-5.3-codex | 128K | Да | Да | Новейшая модель Codex, высшие возможности |
gpt-5.2-codex | 128K | Да | Да | Предыдущее поколение Codex |
gpt-5.1-codex | 128K | Да | Да | Стабильный релиз Codex |
gpt-5.1-codex-mini | 128K | Да | Да | Уменьшенный, более быстрый вариант Codex |
gpt-5-codex | 128K | Да | Да | Первое поколение Codex 5 |
o3 | 128K | Да | Да | Модель рассуждения OpenAI |
o4-mini | 128K | Да | Да | Малая модель рассуждения |
Справочник конфигурации
| Поле | Тип | По умолчанию | Описание |
|---|---|---|---|
model | string | gpt-5.3-codex | Модель Codex по умолчанию |
API-ключ в конфигурации не нужен. Аутентификация обрабатывается через OAuth-поток, хранящийся в ~/.openprx/.
Возможности
Responses API
В отличие от стандартного провайдера OpenAI, который использует Chat Completions API, провайдер Codex использует более новый Responses API (/codex/responses) с:
- SSE-стримингом с событиями дельта-текста в реальном времени
- Структурированными элементами вывода
function_callдля вызова инструментов - Управлением усилием рассуждения (
minimal/low/medium/high/xhigh) - Сводками рассуждения в метаданных ответа
Автоматическое усилие рассуждения
PRX автоматически настраивает усилие рассуждения в зависимости от модели:
| Модель | minimal | xhigh |
|---|---|---|
gpt-5.2-codex / gpt-5.3-codex | Ограничивается до low | Разрешено |
gpt-5.1 | Разрешено | Ограничивается до high |
gpt-5.1-codex-mini | Ограничивается до medium | Ограничивается до high |
Переопределение через переменную окружения ZEROCLAW_CODEX_REASONING_EFFORT.
Нативный вызов инструментов
Определения инструментов отправляются в формате Responses API с type: "function", name, description и parameters. Имена инструментов, содержащие точки (например, email.execute), автоматически санируются в подчёркивания (email_execute) с обратным маппингом для восстановления оригинальных имён в результатах.
Управление OAuth2-токенами
PRX управляет полным жизненным циклом OAuth2:
- Вход:
prx auth login --provider openai-codexинициирует device code flow - Хранение токенов: Токены хранятся зашифрованными в
~/.openprx/ - Автообновление: Просроченные токены доступа автоматически обновляются через сохранённый refresh-токен
- Импорт из Codex CLI: Если у вас есть существующая установка Codex CLI, PRX может автоматически импортировать её токены
Обработка потоков
Провайдер обрабатывает SSE-потоки с:
- Таймаутом бездействия (45 секунд по умолчанию, настраивается через
ZEROCLAW_CODEX_STREAM_IDLE_TIMEOUT_SECS) - Максимальным размером ответа (4 МБ)
- Корректной обработкой маркеров
[DONE]и завершающих событий ответа - Автоматическим определением content-type (SSE или JSON)
Переменные окружения
| Переменная | Описание |
|---|---|
ZEROCLAW_CODEX_REASONING_EFFORT | Переопределение усилия рассуждения (minimal / low / medium / high / xhigh) |
ZEROCLAW_CODEX_STREAM_IDLE_TIMEOUT_SECS | Таймаут бездействия потока в секундах (по умолчанию: 45, минимум: 5) |
Устранение неполадок
«OpenAI Codex auth profile not found»
Выполните prx auth login --provider openai-codex для аутентификации. Требуется подписка ChatGPT.
«OpenAI Codex account id not found»
JWT-токен не содержит ID аккаунта. Повторно аутентифицируйтесь через prx auth login --provider openai-codex.
Ошибки таймаута потока
Если вы видите provider_response_timeout kind=stream_idle_timeout, модель слишком долго отвечает. Варианты:
- Увеличьте таймаут:
export ZEROCLAW_CODEX_STREAM_IDLE_TIMEOUT_SECS=120 - Используйте более быструю модель, например
gpt-5.1-codex-mini
Ошибка «payload_too_large»
Ответ превысил 4 МБ. Обычно это указывает на необычно большой ответ модели. Попробуйте разбить запрос на более мелкие части.