Best Practices: Weniger Tokens nutzen
Praktische Tipps, um den Token-Verbrauch zu reduzieren und in Rakenne schneller und günstiger zu arbeiten.
Jede Nachricht und jede Datei, die Sie an den Agenten senden, verbraucht Tokens. Weniger Tokens bedeuten geringere Kosten und schnellere Antworten. Hier sind praktische Wege, in Rakenne effizient zu bleiben.
1. Prompts fokussiert halten
- Stellen Sie eine Sache nach der anderen, statt viele Fragen in einer Nachricht zu bündeln.
- Seien Sie konkret: „Fasse den zweiten Absatz zusammen“ ist bei langen Dokumenten besser als „fasse das zusammen“.
- Vermeiden Sie es, langen Kontext in Folgenachrichten zu wiederholen; der Agent hat die Konversation bereits.
2. Workspace ausdünnen
- Entfernen oder verschieben Sie Dateien, die für die aktuelle Aufgabe nicht nötig sind. Der Agent sieht alles im Projekt.
- Nutzen Sie kleine, repräsentative Beispieldaten statt ganzer großer Datensätze beim Testen oder Erkunden.
- Behalten Sie im aktiven Workspace nur die Dokumente, an denen Sie wirklich arbeiten.
3. Bei Aufgabenwechsel neu starten
- Bei neuem Ziel oder neuem Dokumentenset starten Sie eine neue Session. Alte Nachrichten und Referenzen erhöhen den Token-Verbrauch und können den Agenten verwirren.
- Nutzen Sie die Session-Verwaltung, um zu entscheiden, wann Sie im gleichen Thread weiterarbeiten und wann Sie neu beginnen.
4. Struktur statt Länge bevorzugen
- Wenn Sie eine bestimmte Ausgabeform brauchen, sagen Sie das von vornherein (z. B. „Antworte in Stichpunkten“ oder „Nutze diese Vorlage“).
- Kürzere, strukturierte Antworten verbrauchen oft weniger Tokens als lange, freie.
5. Mit Kontext-Hygiene kombinieren
Sauberer Kontext und weniger Tokens gehören zusammen: weniger irrelevanter Inhalt im Workspace und in der Konversation bedeutet, dass das Modell weniger lesen und verarbeiten muss. Siehe LLM-Kontext-Hygiene und das Tutorial Session-Verwaltung , um alles zusammenzuführen.