Skip to content
Эта страница создана и переведена с помощью ИИ. Если вы заметили неточности, помогите нам улучшить её. Редактировать на GitHub

OpenAI Codex

Доступ к моделям Codex от OpenAI через ChatGPT Responses API с использованием OAuth2-аутентификации GitHub Copilot. Предоставляет доступ к моделям GPT-5.x Codex с возможностями рассуждения и нативным вызовом инструментов.

Предварительные требования

  • Подписка ChatGPT Plus, Team или Enterprise
  • Существующий OAuth2-токен Codex CLI или GitHub Copilot, или готовность выполнить поток prx auth login

Быстрая настройка

1. Аутентификация

bash
prx auth login --provider openai-codex

Это инициирует GitHub OAuth device flow и сохраняет токены в ~/.openprx/.

2. Конфигурация

toml
[default]
provider = "openai-codex"
model = "gpt-5.3-codex"

3. Проверка

bash
prx doctor models

Доступные модели

МодельКонтекстЗрениеВызов инструментовПримечания
gpt-5.3-codex128KДаДаНовейшая модель Codex, высшие возможности
gpt-5.2-codex128KДаДаПредыдущее поколение Codex
gpt-5.1-codex128KДаДаСтабильный релиз Codex
gpt-5.1-codex-mini128KДаДаУменьшенный, более быстрый вариант Codex
gpt-5-codex128KДаДаПервое поколение Codex 5
o3128KДаДаМодель рассуждения OpenAI
o4-mini128KДаДаМалая модель рассуждения

Справочник конфигурации

ПолеТипПо умолчаниюОписание
modelstringgpt-5.3-codexМодель Codex по умолчанию

API-ключ в конфигурации не нужен. Аутентификация обрабатывается через OAuth-поток, хранящийся в ~/.openprx/.

Возможности

Responses API

В отличие от стандартного провайдера OpenAI, который использует Chat Completions API, провайдер Codex использует более новый Responses API (/codex/responses) с:

  • SSE-стримингом с событиями дельта-текста в реальном времени
  • Структурированными элементами вывода function_call для вызова инструментов
  • Управлением усилием рассуждения (minimal / low / medium / high / xhigh)
  • Сводками рассуждения в метаданных ответа

Автоматическое усилие рассуждения

PRX автоматически настраивает усилие рассуждения в зависимости от модели:

Модельminimalxhigh
gpt-5.2-codex / gpt-5.3-codexОграничивается до lowРазрешено
gpt-5.1РазрешеноОграничивается до high
gpt-5.1-codex-miniОграничивается до mediumОграничивается до high

Переопределение через переменную окружения ZEROCLAW_CODEX_REASONING_EFFORT.

Нативный вызов инструментов

Определения инструментов отправляются в формате Responses API с type: "function", name, description и parameters. Имена инструментов, содержащие точки (например, email.execute), автоматически санируются в подчёркивания (email_execute) с обратным маппингом для восстановления оригинальных имён в результатах.

Управление OAuth2-токенами

PRX управляет полным жизненным циклом OAuth2:

  1. Вход: prx auth login --provider openai-codex инициирует device code flow
  2. Хранение токенов: Токены хранятся зашифрованными в ~/.openprx/
  3. Автообновление: Просроченные токены доступа автоматически обновляются через сохранённый refresh-токен
  4. Импорт из Codex CLI: Если у вас есть существующая установка Codex CLI, PRX может автоматически импортировать её токены

Обработка потоков

Провайдер обрабатывает SSE-потоки с:

  • Таймаутом бездействия (45 секунд по умолчанию, настраивается через ZEROCLAW_CODEX_STREAM_IDLE_TIMEOUT_SECS)
  • Максимальным размером ответа (4 МБ)
  • Корректной обработкой маркеров [DONE] и завершающих событий ответа
  • Автоматическим определением content-type (SSE или JSON)

Переменные окружения

ПеременнаяОписание
ZEROCLAW_CODEX_REASONING_EFFORTПереопределение усилия рассуждения (minimal / low / medium / high / xhigh)
ZEROCLAW_CODEX_STREAM_IDLE_TIMEOUT_SECSТаймаут бездействия потока в секундах (по умолчанию: 45, минимум: 5)

Устранение неполадок

«OpenAI Codex auth profile not found»

Выполните prx auth login --provider openai-codex для аутентификации. Требуется подписка ChatGPT.

«OpenAI Codex account id not found»

JWT-токен не содержит ID аккаунта. Повторно аутентифицируйтесь через prx auth login --provider openai-codex.

Ошибки таймаута потока

Если вы видите provider_response_timeout kind=stream_idle_timeout, модель слишком долго отвечает. Варианты:

  • Увеличьте таймаут: export ZEROCLAW_CODEX_STREAM_IDLE_TIMEOUT_SECS=120
  • Используйте более быструю модель, например gpt-5.1-codex-mini

Ошибка «payload_too_large»

Ответ превысил 4 МБ. Обычно это указывает на необычно большой ответ модели. Попробуйте разбить запрос на более мелкие части.

Released under the Apache-2.0 License.