Skip to content
Diese Seite wurde mit KI-Unterstützung erstellt und übersetzt. Falls Ihnen Ungenauigkeiten auffallen, helfen Sie gerne bei der Verbesserung. Auf GitHub bearbeiten

prx chat

Startet eine interaktive Chat-Sitzung im Terminal mit Streaming-Antworten, Gesprächsverlauf und vollem Werkzeugzugriff.

Verwendung

bash
prx chat [OPTIONS]

Optionen

FlagKurzStandardBeschreibung
--provider-PKonfigurationsstandardZu verwendender LLM-Anbieter (z.B. anthropic, openai, ollama)
--model-mAnbieterstandardModellbezeichner (z.B. claude-sonnet-4-20250514, gpt-4o)
--system-sBenutzerdefinierter System-Prompt (überschreibt Konfiguration)
--session-Sneue SitzungBenannte Sitzung fortsetzen
--no-toolsfalseWerkzeugverwendung für diese Sitzung deaktivieren
--no-memoryfalseGedächtnis-Lesen und -Schreiben deaktivieren
--no-streamfalseAuf vollständige Antwort warten statt Streaming
--max-turnsunbegrenztMaximale Gesprächsrunden vor automatischem Beenden
--temperature-tAnbieterstandardSampling-Temperatur (0.0 - 2.0)

Interaktive Steuerung

Innerhalb der Chat-Sitzung stehen folgende Tastenkombinationen zur Verfügung:

TasteAktion
EnterNachricht senden
Shift+Enter oder \ dann EnterNeue Zeile (mehrzeilige Eingabe)
Hoch / RunterNachrichtenverlauf durchblättern
Ctrl+CAktuelle Generierung abbrechen
Ctrl+DChat-Sitzung beenden
Ctrl+LBildschirm löschen

Schrägstrich-Befehle

Geben Sie diese Befehle direkt in die Chat-Eingabe ein:

BefehlBeschreibung
/helpVerfügbare Befehle anzeigen
/model <Name>Modell während der Sitzung wechseln
/provider <Name>Anbieter während der Sitzung wechseln
/system <Prompt>System-Prompt aktualisieren
/clearGesprächsverlauf löschen
/save [Name]Aktuelle Sitzung speichern
/load <Name>Gespeicherte Sitzung laden
/sessionsGespeicherte Sitzungen auflisten
/toolsVerfügbare Werkzeuge auflisten
/exitChat beenden

Beispiele

bash
# Mit Standardeinstellungen starten
prx chat

# Bestimmtes Modell verwenden
prx chat --provider anthropic --model claude-sonnet-4-20250514

# Vorherige Sitzung fortsetzen
prx chat --session project-planning

# Schnelle Frage mit lokalem Modell
prx chat --provider ollama --model llama3

# Auf 10 Runden begrenzen (nützlich für skriptgesteuerte Workflows)
prx chat --max-turns 10

Sitzungsverwaltung

Chat-Sitzungen werden beim Beenden automatisch gespeichert. Jede Sitzung zeichnet auf:

  • Gesprächsnachrichten (Benutzer + Assistent)
  • Werkzeugaufrufe und Ergebnisse
  • Verwendeter Anbieter und Modell
  • Zeitstempel und Dauer

Sitzungen werden im PRX-Datenverzeichnis gespeichert (standardmäßig ~/.local/share/prx/sessions/).

bash
# Alle Sitzungen auflisten
prx chat --session ""  # leerer Name listet Sitzungen auf

# Nach Name fortsetzen
prx chat --session my-project

Mehrzeilige Eingabe

Für längere Prompts verwenden Sie den mehrzeiligen Modus. Drücken Sie Shift+Enter, um eine neue Zeile einzufügen, ohne zu senden. Die Eingabeaufforderung wechselt von > zu ..., um anzuzeigen, dass Sie sich im mehrzeiligen Modus befinden.

Alternativ können Sie Eingaben aus einer Datei weiterleiten:

bash
# Der Chat öffnet sich weiterhin interaktiv, mit dem Dateiinhalt als erste Nachricht
prx chat < prompt.txt

Anbieter- und Modell-Überschreibung

Die Flags --provider und --model überschreiben die Standardwerte aus Ihrer Konfigurationsdatei für die Dauer der Sitzung. Sie können auch während der Sitzung mit Schrägstrich-Befehlen wechseln.

bash
# Mit OpenAI starten, während des Gesprächs zu Anthropic wechseln
prx chat --provider openai
# Im Chat: /provider anthropic
# Im Chat: /model claude-sonnet-4-20250514

Verwandte Themen

Released under the Apache-2.0 License.