Skip to content
ეს გვერდი შეიქმნა და ითარგმნა ხელოვნური ინტელექტის დახმარებით. თუ შეამჩნევთ უზუსტობას, გთხოვთ, დაგვეხმარეთ გაუმჯობესებაში. GitHub-ზე რედაქტირება

აგენტის ციკლი

აგენტის ციკლი არის ცენტრალური შესრულების ციკლი, რომელიც PRX აგენტის ყველა სესიას მართავს. თითოეული იტერაცია ამუშავებს LLM-ის პასუხს, უგზავნის ინსტრუმენტების გამოძახებებს, მართავს მეხსიერებას და წყვეტს, გააგრძელოს თუ საბოლოო პასუხი დააბრუნოს.

ციკლის სასიცოცხლო ციკლი

მომხმარებლის შეტყობინება


┌─────────────┐
│ კონტექსტის  │──── მეხსიერების გახსენება
│ აგება       │
└──────┬──────┘

┌─────────────┐
│ LLM ინფერენსი│──── სტრიმინგ პასუხი
└──────┬──────┘

┌─────────────┐
│ გამოტანის   │──── ინსტრუმენტის გამოძახებები / ტექსტი
│ პარსინგი    │
└──────┬──────┘

   ინსტრუმენტის გამოძახებები?
   ├── დიახ ──→ ინსტრუმენტების შესრულება ──→ ციკლის გაგრძელება
   └── არა  ──→ პასუხის დაბრუნება

ინსტრუმენტების გაგზავნა

როდესაც LLM-ის პასუხი ინსტრუმენტების გამოძახებებს შეიცავს, ციკლი:

  1. ამოწმებს თითოეულ ინსტრუმენტის გამოძახებას უსაფრთხოების პოლიტიკის მიხედვით
  2. ასრულებს დამტკიცებულ გამოძახებებს (შესაძლოა პარალელურად)
  3. აგროვებს შედეგებს და უკან აწვდის LLM-ს
  4. აგრძელებს ციკლს შემდეგი ინფერენსის ნაბიჯისთვის

სტრიმინგი

PRX LLM-ის პასუხებს ტოკენ-ტოკენით სტრიმინგით აწვდის კლიენტს, ამავდროულად ინსტრუმენტის გამოძახების ამოცნობისთვის ბუფერირებას ახდენს. სტრიმინგის პაიპლაინი მხარს უჭერს:

  • რეალურ დროში ტოკენების გადაცემას CLI ან WebSocket კლიენტებზე
  • უკუწნევის მართვას, როდესაც კლიენტი ნელია
  • გრაციოზულ გაუქმებას Ctrl+C ან API სიგნალებით

მეხსიერების გახსენება

თითოეული LLM-ის გამოძახების წინ, ციკლი შესაბამის კონტექსტს იღებს მეხსიერების სისტემიდან:

  • ბოლო საუბრის ნაბიჯები (მოცურავე ფანჯარა)
  • სემანტიკური ძიების შედეგები ემბედინგების საცავიდან
  • დამაგრებული ფაქტები და მომხმარებლის პრეფერენციები

კონტექსტის შეკუმშვა

როდესაც საუბარი მოდელის კონტექსტის ფანჯარას აჭარბებს, ციკლი იწყებს შეკუმშვას:

  1. ძველი ნაბიჯების შეჯამება შეკუმშულ წარმოდგენაში
  2. ჯერ კიდევ მითითებული ინსტრუმენტის გამოძახების შედეგების შენარჩუნება
  3. სისტემის პრომპტისა და დამაგრებული მოგონებების ხელუხლებლად შენარჩუნება

კონფიგურაცია

toml
[agent.loop]
max_iterations = 50
parallel_tool_calls = true
compaction_threshold_tokens = 80000
compaction_strategy = "summarize"  # ან "truncate"

დაკავშირებული გვერდები

Released under the Apache-2.0 License.