Skip to content
Esta página fue generada y traducida con asistencia de IA. Si encuentra alguna imprecisión, no dude en ayudar a mejorarla. Editar en GitHub

OpenAI Codex

Accede a los modelos Codex de OpenAI via la API de Respuestas de ChatGPT usando el flujo de autenticacion OAuth2 de GitHub Copilot. Proporciona acceso a modelos GPT-5.x Codex con capacidades de razonamiento y llamada nativa a herramientas.

Requisitos previos

  • Una suscripcion ChatGPT Plus, Team o Enterprise
  • Un token OAuth2 existente de Codex CLI o GitHub Copilot, o disposicion para ejecutar el flujo prx auth login

Configuracion rapida

1. Autenticar

bash
prx auth login --provider openai-codex

Esto inicia el flujo de dispositivo OAuth de GitHub y almacena tokens en ~/.openprx/.

2. Configurar

toml
[default]
provider = "openai-codex"
model = "gpt-5.3-codex"

3. Verificar

bash
prx doctor models

Modelos disponibles

ModeloContextoVisionUso de herramientasNotas
gpt-5.3-codex128KSiSiUltimo modelo Codex, mayor capacidad
gpt-5.2-codex128KSiSiGeneracion anterior de Codex
gpt-5.1-codex128KSiSiVersion estable de Codex
gpt-5.1-codex-mini128KSiSiVariante mas pequena y rapida de Codex
gpt-5-codex128KSiSiPrimera generacion Codex 5
o3128KSiSiModelo de razonamiento de OpenAI
o4-mini128KSiSiModelo de razonamiento mas pequeno

Referencia de configuracion

CampoTipoPor defectoDescripcion
modelstringgpt-5.3-codexModelo Codex por defecto a usar

No se necesita clave API en la configuracion. La autenticacion se maneja a traves del flujo OAuth almacenado en ~/.openprx/.

Caracteristicas

API de Respuestas

A diferencia del proveedor estandar de OpenAI que usa la API de Chat Completions, el proveedor Codex usa la API de Respuestas mas reciente (/codex/responses) con:

  • Streaming SSE con eventos de texto delta en tiempo real
  • Items de salida function_call estructurados para uso de herramientas
  • Control de esfuerzo de razonamiento (minimal / low / medium / high / xhigh)
  • Resumenes de razonamiento en metadatos de respuesta

Esfuerzo de razonamiento automatico

PRX ajusta automaticamente el esfuerzo de razonamiento segun el modelo:

Modelominimalxhigh
gpt-5.2-codex / gpt-5.3-codexLimitado a lowPermitido
gpt-5.1PermitidoLimitado a high
gpt-5.1-codex-miniLimitado a mediumLimitado a high

Sobreescribe con la variable de entorno ZEROCLAW_CODEX_REASONING_EFFORT.

Gestion de tokens OAuth2

PRX gestiona el ciclo de vida completo de OAuth2:

  1. Login: prx auth login --provider openai-codex inicia el flujo de codigo de dispositivo
  2. Almacenamiento de tokens: Los tokens se almacenan cifrados en ~/.openprx/
  3. Auto-renovacion: Los tokens de acceso expirados se renuevan automaticamente usando el token de actualizacion almacenado
  4. Importacion de Codex CLI: Si tienes una instalacion existente de Codex CLI, PRX puede importar sus tokens automaticamente

Variables de entorno

VariableDescripcion
ZEROCLAW_CODEX_REASONING_EFFORTSobreescribir esfuerzo de razonamiento (minimal / low / medium / high / xhigh)
ZEROCLAW_CODEX_STREAM_IDLE_TIMEOUT_SECSTimeout de inactividad del stream en segundos (por defecto: 45, minimo: 5)

Solucion de problemas

"OpenAI Codex auth profile not found"

Ejecuta prx auth login --provider openai-codex para autenticar. Esto requiere una suscripcion ChatGPT.

"OpenAI Codex account id not found"

El token JWT no contiene un ID de cuenta. Re-autenticate con prx auth login --provider openai-codex.

Errores de timeout del stream

Si ves provider_response_timeout kind=stream_idle_timeout, el modelo esta tardando demasiado en responder. Opciones:

  • Aumentar el timeout: export ZEROCLAW_CODEX_STREAM_IDLE_TIMEOUT_SECS=120
  • Usar un modelo mas rapido como gpt-5.1-codex-mini

Error "payload_too_large"

La respuesta excedio 4 MB. Esto usualmente indica una respuesta del modelo inusualmente grande. Intenta dividir tu solicitud en partes mas pequenas.

Released under the Apache-2.0 License.