OpenAI Codex
OpenAI-ის Codex მოდელებზე წვდომა ChatGPT Responses API-ით GitHub Copilot-ის OAuth2 ავტენტიფიკაციის ნაკადის გამოყენებით. უზრუნველყოფს GPT-5.x Codex მოდელებზე წვდომას მსჯელობის შესაძლებლობებითა და მშობლიური ინსტრუმენტების გამოძახებით.
წინაპირობები
- ChatGPT Plus, Team ან Enterprise ხელმოწერა
- არსებული Codex CLI ან GitHub Copilot OAuth2 ტოკენი, ან მზაობა
prx auth loginნაკადის გასაშვებად
სწრაფი დაყენება
1. ავტენტიფიკაცია
prx auth login --provider openai-codexეს GitHub OAuth მოწყობილობის ნაკადს იწყებს და ტოკენებს ~/.openprx/-ში ინახავს.
2. კონფიგურაცია
[default]
provider = "openai-codex"
model = "gpt-5.3-codex"3. შემოწმება
prx doctor modelsხელმისაწვდომი მოდელები
| მოდელი | კონტექსტი | ვიზუალი | ინსტრუმენტები | შენიშვნები |
|---|---|---|---|---|
gpt-5.3-codex | 128K | დიახ | დიახ | უახლესი Codex მოდელი, უმაღლესი შესაძლებლობა |
gpt-5.2-codex | 128K | დიახ | დიახ | წინა თაობის Codex |
gpt-5.1-codex | 128K | დიახ | დიახ | სტაბილური Codex რელიზი |
gpt-5.1-codex-mini | 128K | დიახ | დიახ | მცირე, სწრაფი Codex ვარიანტი |
gpt-5-codex | 128K | დიახ | დიახ | პირველი თაობის Codex 5 |
o3 | 128K | დიახ | დიახ | OpenAI მსჯელობის მოდელი |
o4-mini | 128K | დიახ | დიახ | მცირე მსჯელობის მოდელი |
კონფიგურაციის მითითება
| ველი | ტიპი | ნაგულისხმევი | აღწერა |
|---|---|---|---|
model | string | gpt-5.3-codex | ნაგულისხმევი Codex მოდელი |
კონფიგურაციაში API გასაღები არ არის საჭირო. ავტენტიფიკაცია ~/.openprx/-ში შენახული OAuth ნაკადით ხორციელდება.
ფუნქციები
Responses API
სტანდარტული OpenAI პროვაიდერისგან განსხვავებით, რომელიც Chat Completions API-ს იყენებს, Codex პროვაიდერი უფრო ახალ Responses API-ს (/codex/responses) იყენებს შემდეგით:
- SSE ნაკადი რეალურ დროში დელტა ტექსტის მოვლენებით
- სტრუქტურირებული
function_callგამოსავალის ერთეულები ინსტრუმენტების გამოყენებისთვის - მსჯელობის ძალისხმევის კონტროლი (
minimal/low/medium/high/xhigh) - მსჯელობის შეჯამებები პასუხის მეტამონაცემებში
ავტომატური მსჯელობის ძალისხმევა
PRX ავტომატურად არეგულირებს მსჯელობის ძალისხმევას მოდელის მიხედვით:
| მოდელი | minimal | xhigh |
|---|---|---|
gpt-5.2-codex / gpt-5.3-codex | შეზღუდულია low-მდე | ნებადართულია |
gpt-5.1 | ნებადართულია | შეზღუდულია high-მდე |
gpt-5.1-codex-mini | შეზღუდულია medium-მდე | შეზღუდულია high-მდე |
გადაფარეთ ZEROCLAW_CODEX_REASONING_EFFORT გარემოს ცვლადით.
მშობლიური ინსტრუმენტების გამოძახება
ინსტრუმენტების განსაზღვრებები Responses API ფორმატში იგზავნება type: "function", name, description და parameters ველებით. ინსტრუმენტების სახელები, რომლებიც წერტილებს შეიცავს (მაგ., email.execute), ავტომატურად ნორმალიზდება ქვედა ტირეებით (email_execute) უკუ-შესაბამისობით ორიგინალი სახელების შედეგებში აღსადგენად.
OAuth2 ტოკენების მართვა
PRX მართავს სრულ OAuth2 სიცოცხლის ციკლს:
- შესვლა:
prx auth login --provider openai-codexმოწყობილობის კოდის ნაკადს იწყებს - ტოკენების შენახვა: ტოკენები დაშიფრულად ინახება
~/.openprx/-ში - ავტომატური განახლება: ვადაგასული წვდომის ტოკენები ავტომატურად განახლდება შენახული განახლების ტოკენით
- Codex CLI-დან იმპორტი: თუ არსებული Codex CLI ინსტალაცია გაქვთ, PRX-ს შეუძლია მისი ტოკენების ავტომატური იმპორტი
ნაკადის დამუშავება
პროვაიდერი SSE ნაკადებს ამუშავებს შემდეგით:
- უმოქმედობის დროის ამოწურვა (ნაგულისხმევად 45 წამი, კონფიგურირებადია
ZEROCLAW_CODEX_STREAM_IDLE_TIMEOUT_SECS-ით) - პასუხის მაქსიმალური ზომა (4 MB)
[DONE]მარკერებისა და ტერმინალური პასუხის მოვლენების მეგობრული დამუშავება- ავტომატური content-type ამოცნობა (SSE vs JSON)
გარემოს ცვლადები
| ცვლადი | აღწერა |
|---|---|
ZEROCLAW_CODEX_REASONING_EFFORT | მსჯელობის ძალისხმევის გადაფარვა (minimal / low / medium / high / xhigh) |
ZEROCLAW_CODEX_STREAM_IDLE_TIMEOUT_SECS | ნაკადის უმოქმედობის დროის ამოწურვა წამებში (ნაგულისხმევი: 45, მინიმუმი: 5) |
პრობლემების მოგვარება
"OpenAI Codex auth profile not found"
გაუშვით prx auth login --provider openai-codex ავტენტიფიკაციისთვის. ეს ChatGPT ხელმოწერას მოითხოვს.
"OpenAI Codex account id not found"
JWT ტოკენი ანგარიშის ID-ს არ შეიცავს. ხელახლა გაიარეთ ავტენტიფიკაცია prx auth login --provider openai-codex-ით.
ნაკადის დროის ამოწურვის შეცდომები
თუ provider_response_timeout kind=stream_idle_timeout ხედავთ, მოდელს პასუხის დაბრუნება ძალიან დიდ დროს სჭირდება. ვარიანტები:
- გაზარდეთ დროის ამოწურვა:
export ZEROCLAW_CODEX_STREAM_IDLE_TIMEOUT_SECS=120 - გამოიყენეთ უფრო სწრაფი მოდელი, როგორიცაა
gpt-5.1-codex-mini
"payload_too_large" შეცდომა
პასუხმა 4 MB გადააჭარბა. ეს ჩვეულებრივ არაჩვეულებრივად დიდ მოდელის პასუხზე მიანიშნებს. სცადეთ თქვენი მოთხოვნის უფრო პატარა ნაწილებად დაყოფა.