Skip to content
Эта страница создана и переведена с помощью ИИ. Если вы заметили неточности, помогите нам улучшить её. Редактировать на GitHub

Бэкенд памяти на эмбеддингах

Бэкенд эмбеддингов хранит воспоминания как векторные эмбеддинги, обеспечивая поиск по семантическому сходству. Это самый мощный механизм вспоминания, позволяющий агентам находить контекстно-релевантные воспоминания даже при отсутствии точного совпадения ключевых слов.

Обзор

Бэкенд эмбеддингов:

  • Преобразует текст воспоминаний в плотные векторные представления
  • Хранит векторы в локальной или удалённой векторной базе данных
  • Извлекает воспоминания по косинусному сходству с текущим запросом
  • Поддерживает множество провайдеров эмбеддингов (Ollama, OpenAI и т.д.)

Как это работает

  1. При сохранении воспоминания его текст отправляется в модель эмбеддингов
  2. Полученный вектор сохраняется вместе с исходным текстом
  3. При вспоминании текущий контекст преобразуется в эмбеддинг и сравнивается с сохранёнными векторами
  4. Возвращаются top-K наиболее похожих воспоминаний

Конфигурация

toml
[memory]
backend = "embeddings"

[memory.embeddings]
provider = "ollama"
model = "nomic-embed-text"
dimension = 768
top_k = 10
similarity_threshold = 0.5

[memory.embeddings.store]
type = "sqlite-vec"  # или "pgvector"
path = "~/.local/share/openprx/embeddings.db"

Поддерживаемые провайдеры эмбеддингов

ПровайдерМодельРазмерность
Ollamanomic-embed-text768
OpenAItext-embedding-3-small1536
OpenAItext-embedding-3-large3072

Связанные страницы

Released under the Apache-2.0 License.