Skip to content
ეს გვერდი შეიქმნა და ითარგმნა ხელოვნური ინტელექტის დახმარებით. თუ შეამჩნევთ უზუსტობას, გთხოვთ, დაგვეხმარეთ გაუმჯობესებაში. GitHub-ზე რედაქტირება

OpenAI Codex

OpenAI-ის Codex მოდელებზე წვდომა ChatGPT Responses API-ით GitHub Copilot-ის OAuth2 ავტენტიფიკაციის ნაკადის გამოყენებით. უზრუნველყოფს GPT-5.x Codex მოდელებზე წვდომას მსჯელობის შესაძლებლობებითა და მშობლიური ინსტრუმენტების გამოძახებით.

წინაპირობები

  • ChatGPT Plus, Team ან Enterprise ხელმოწერა
  • არსებული Codex CLI ან GitHub Copilot OAuth2 ტოკენი, ან მზაობა prx auth login ნაკადის გასაშვებად

სწრაფი დაყენება

1. ავტენტიფიკაცია

bash
prx auth login --provider openai-codex

ეს GitHub OAuth მოწყობილობის ნაკადს იწყებს და ტოკენებს ~/.openprx/-ში ინახავს.

2. კონფიგურაცია

toml
[default]
provider = "openai-codex"
model = "gpt-5.3-codex"

3. შემოწმება

bash
prx doctor models

ხელმისაწვდომი მოდელები

მოდელიკონტექსტივიზუალიინსტრუმენტებიშენიშვნები
gpt-5.3-codex128Kდიახდიახუახლესი Codex მოდელი, უმაღლესი შესაძლებლობა
gpt-5.2-codex128Kდიახდიახწინა თაობის Codex
gpt-5.1-codex128Kდიახდიახსტაბილური Codex რელიზი
gpt-5.1-codex-mini128Kდიახდიახმცირე, სწრაფი Codex ვარიანტი
gpt-5-codex128Kდიახდიახპირველი თაობის Codex 5
o3128KდიახდიახOpenAI მსჯელობის მოდელი
o4-mini128Kდიახდიახმცირე მსჯელობის მოდელი

კონფიგურაციის მითითება

ველიტიპინაგულისხმევიაღწერა
modelstringgpt-5.3-codexნაგულისხმევი Codex მოდელი

კონფიგურაციაში API გასაღები არ არის საჭირო. ავტენტიფიკაცია ~/.openprx/-ში შენახული OAuth ნაკადით ხორციელდება.

ფუნქციები

Responses API

სტანდარტული OpenAI პროვაიდერისგან განსხვავებით, რომელიც Chat Completions API-ს იყენებს, Codex პროვაიდერი უფრო ახალ Responses API-ს (/codex/responses) იყენებს შემდეგით:

  • SSE ნაკადი რეალურ დროში დელტა ტექსტის მოვლენებით
  • სტრუქტურირებული function_call გამოსავალის ერთეულები ინსტრუმენტების გამოყენებისთვის
  • მსჯელობის ძალისხმევის კონტროლი (minimal / low / medium / high / xhigh)
  • მსჯელობის შეჯამებები პასუხის მეტამონაცემებში

ავტომატური მსჯელობის ძალისხმევა

PRX ავტომატურად არეგულირებს მსჯელობის ძალისხმევას მოდელის მიხედვით:

მოდელიminimalxhigh
gpt-5.2-codex / gpt-5.3-codexშეზღუდულია low-მდენებადართულია
gpt-5.1ნებადართულიაშეზღუდულია high-მდე
gpt-5.1-codex-miniშეზღუდულია medium-მდეშეზღუდულია high-მდე

გადაფარეთ ZEROCLAW_CODEX_REASONING_EFFORT გარემოს ცვლადით.

მშობლიური ინსტრუმენტების გამოძახება

ინსტრუმენტების განსაზღვრებები Responses API ფორმატში იგზავნება type: "function", name, description და parameters ველებით. ინსტრუმენტების სახელები, რომლებიც წერტილებს შეიცავს (მაგ., email.execute), ავტომატურად ნორმალიზდება ქვედა ტირეებით (email_execute) უკუ-შესაბამისობით ორიგინალი სახელების შედეგებში აღსადგენად.

OAuth2 ტოკენების მართვა

PRX მართავს სრულ OAuth2 სიცოცხლის ციკლს:

  1. შესვლა: prx auth login --provider openai-codex მოწყობილობის კოდის ნაკადს იწყებს
  2. ტოკენების შენახვა: ტოკენები დაშიფრულად ინახება ~/.openprx/-ში
  3. ავტომატური განახლება: ვადაგასული წვდომის ტოკენები ავტომატურად განახლდება შენახული განახლების ტოკენით
  4. Codex CLI-დან იმპორტი: თუ არსებული Codex CLI ინსტალაცია გაქვთ, PRX-ს შეუძლია მისი ტოკენების ავტომატური იმპორტი

ნაკადის დამუშავება

პროვაიდერი SSE ნაკადებს ამუშავებს შემდეგით:

  • უმოქმედობის დროის ამოწურვა (ნაგულისხმევად 45 წამი, კონფიგურირებადია ZEROCLAW_CODEX_STREAM_IDLE_TIMEOUT_SECS-ით)
  • პასუხის მაქსიმალური ზომა (4 MB)
  • [DONE] მარკერებისა და ტერმინალური პასუხის მოვლენების მეგობრული დამუშავება
  • ავტომატური content-type ამოცნობა (SSE vs JSON)

გარემოს ცვლადები

ცვლადიაღწერა
ZEROCLAW_CODEX_REASONING_EFFORTმსჯელობის ძალისხმევის გადაფარვა (minimal / low / medium / high / xhigh)
ZEROCLAW_CODEX_STREAM_IDLE_TIMEOUT_SECSნაკადის უმოქმედობის დროის ამოწურვა წამებში (ნაგულისხმევი: 45, მინიმუმი: 5)

პრობლემების მოგვარება

"OpenAI Codex auth profile not found"

გაუშვით prx auth login --provider openai-codex ავტენტიფიკაციისთვის. ეს ChatGPT ხელმოწერას მოითხოვს.

"OpenAI Codex account id not found"

JWT ტოკენი ანგარიშის ID-ს არ შეიცავს. ხელახლა გაიარეთ ავტენტიფიკაცია prx auth login --provider openai-codex-ით.

ნაკადის დროის ამოწურვის შეცდომები

თუ provider_response_timeout kind=stream_idle_timeout ხედავთ, მოდელს პასუხის დაბრუნება ძალიან დიდ დროს სჭირდება. ვარიანტები:

  • გაზარდეთ დროის ამოწურვა: export ZEROCLAW_CODEX_STREAM_IDLE_TIMEOUT_SECS=120
  • გამოიყენეთ უფრო სწრაფი მოდელი, როგორიცაა gpt-5.1-codex-mini

"payload_too_large" შეცდომა

პასუხმა 4 MB გადააჭარბა. ეს ჩვეულებრივ არაჩვეულებრივად დიდ მოდელის პასუხზე მიანიშნებს. სცადეთ თქვენი მოთხოვნის უფრო პატარა ნაწილებად დაყოფა.

Released under the Apache-2.0 License.