Skip to content
ეს გვერდი შეიქმნა და ითარგმნა ხელოვნური ინტელექტის დახმარებით. თუ შეამჩნევთ უზუსტობას, გთხოვთ, დაგვეხმარეთ გაუმჯობესებაში. GitHub-ზე რედაქტირება

OpenAI

GPT მოდელებზე წვდომა OpenAI Chat Completions API-ით, მშობლიური ფუნქციების გამოძახებით, ვიზუალური ანალიზითა და მსჯელობის მოდელების მხარდაჭერით.

წინაპირობები

სწრაფი დაყენება

1. API გასაღების მიღება

  1. დარეგისტრირდით platform.openai.com-ზე
  2. გადახვიდეთ API Keys განყოფილებაში მარცხენა გვერდითა პანელზე
  3. დააჭირეთ Create new secret key-ს და დააკოპირეთ (იწყება sk--ით)

2. კონფიგურაცია

toml
[default]
provider = "openai"
model = "gpt-4o"

[providers.openai]
api_key = "${OPENAI_API_KEY}"

ან დააყენეთ გარემოს ცვლადი:

bash
export OPENAI_API_KEY="sk-..."

3. შემოწმება

bash
prx doctor models

ხელმისაწვდომი მოდელები

მოდელიკონტექსტივიზუალიინსტრუმენტებიშენიშვნები
gpt-4o128Kდიახდიახსაუკეთესო ზოგადი დანიშნულების მოდელი
gpt-4o-mini128Kდიახდიახუფრო პატარა, სწრაფი, იაფი
gpt-4-turbo128Kდიახდიახწინა თაობის ფლაგმანი
o3128Kდიახდიახმსჯელობის მოდელი
o4-mini128Kდიახდიახმცირე მსჯელობის მოდელი
gpt-48Kარადიახორიგინალი GPT-4

კონფიგურაციის მითითება

ველიტიპინაგულისხმევიაღწერა
api_keystringსავალდებულოOpenAI API გასაღები (sk-...)
api_urlstringhttps://api.openai.com/v1მორგებული API საბაზისო URL
modelstringgpt-4oნაგულისხმევი მოდელი

ფუნქციები

მშობლიური ფუნქციების გამოძახება

PRX ინსტრუმენტებს OpenAI-ის მშობლიურ function ფორმატში აგზავნის. ინსტრუმენტების განსაზღვრებები მოიცავს name, description და parameters (JSON Schema). პროვაიდერი მხარს უჭერს tool_choice: "auto"-ს ინსტრუმენტების ავტომატური შერჩევისთვის.

ვიზუალი

ვიზუალის შესაძლებლობის მქონე მოდელებს (GPT-4o, GPT-4o-mini) შეუძლიათ საუბარში ჩართული სურათების ანალიზი. სურათები სტანდარტული შეტყობინების ფორმატით იგზავნება ჩაშენებულად.

მსჯელობის მოდელების მხარდაჭერა

მსჯელობის მოდელებისთვის (o1, o3, o4-mini), PRX ავტომატურად ამუშავებს reasoning_content სარეზერვო ვარიანტს. როცა მოდელი გამოსავალს reasoning_content-ში აბრუნებს content-ის ნაცვლად, PRX მსჯელობის ტექსტს გამჭვირვალედ ამოიღებს.

მრავალბიჯიანი საუბრები

საუბრის სრული ისტორია ინახება და API-ს ეგზავნება, სისტემური პრომპტების, მომხმარებლის შეტყობინებების, ასისტენტის პასუხების და ინსტრუმენტის გამოძახება/შედეგის წყვილების ჩათვლით OpenAI-ის მშობლიურ სტრუქტურირებულ ფორმატში.

მორგებული საბაზისო URL

პროქსის, Azure OpenAI-ის ან ნებისმიერი OpenAI-თავსებადი ენდფოინთის გამოსაყენებლად:

toml
[providers.openai]
api_key = "${OPENAI_API_KEY}"
api_url = "https://my-proxy.example.com/v1"

კავშირის გახურება

გაშვებისას PRX მსუბუქ GET /models მოთხოვნას აგზავნის TLS და HTTP/2 კავშირების პულის შესაქმნელად, რაც პირველი რეალური მოთხოვნის დაყოვნებას ამცირებს.

პრობლემების მოგვარება

"OpenAI API key not set"

დააყენეთ OPENAI_API_KEY გარემოს ცვლადი ან დაამატეთ api_key თქვენს config.toml-ში [providers.openai] სექციაში.

429 Rate Limit

OpenAI ზღუდავს ტოკენებისა და მოთხოვნების რაოდენობას წუთში. გადაწყვეტილებები:

  • დაელოდეთ და ცადეთ ხელახლა (PRX ამას ავტომატურად ამუშავებს სანდო პროვაიდერის შემფუთველით)
  • განაახლეთ თქვენი OpenAI გეგმა უფრო მაღალი ლიმიტებისთვის
  • გამოიყენეთ fallback_providers სხვა პროვაიდერზე გადასართავად შეზღუდვისას

ცარიელი პასუხი მსჯელობის მოდელებიდან

თუ o1/o3/o4-mini-ს იყენებთ და ცარიელ პასუხებს იღებთ, ეს მოსალოდნელი ქცევაა, როცა მოდელის გამოსავალი მთლიანად reasoning_content-შია. PRX ავტომატურად გადართავს reasoning_content-ზე, როცა content ცარიელია.

Released under the Apache-2.0 License.