# Best Practices: Weniger Tokens nutzen

> Praktische Tipps, um den Token-Verbrauch zu reduzieren und in Rakenne schneller und günstiger zu arbeiten.

Author: map[bio:Founder linkedin:https://www.linkedin.com/in/ricardocabral/ name:Ricardo Cabral]
Published: 2026-02-12
Tags: tokens, efficiency, prompts
URL: https://rakenne.app/de/learn/best-practices/using-fewer-tokens/index.md


Jede Nachricht und jede Datei, die Sie an den Agenten senden, verbraucht Tokens. Weniger Tokens bedeuten geringere Kosten und schnellere Antworten. Hier sind praktische Wege, in Rakenne effizient zu bleiben.

## 1. Prompts fokussiert halten

- Stellen Sie eine Sache nach der anderen, statt viele Fragen in einer Nachricht zu bündeln.
- Seien Sie konkret: „Fasse den zweiten Absatz zusammen“ ist bei langen Dokumenten besser als „fasse das zusammen“.
- Vermeiden Sie es, langen Kontext in Folgenachrichten zu wiederholen; der Agent hat die Konversation bereits.

## 2. Workspace ausdünnen

- Entfernen oder verschieben Sie Dateien, die für die aktuelle Aufgabe nicht nötig sind. Der Agent sieht alles im Projekt.
- Nutzen Sie kleine, repräsentative Beispieldaten statt ganzer großer Datensätze beim Testen oder Erkunden.
- Behalten Sie im aktiven Workspace nur die Dokumente, an denen Sie wirklich arbeiten.

## 3. Bei Aufgabenwechsel neu starten

- Bei neuem Ziel oder neuem Dokumentenset starten Sie eine neue Session. Alte Nachrichten und Referenzen erhöhen den Token-Verbrauch und können den Agenten verwirren.
- Nutzen Sie die Session-Verwaltung, um zu entscheiden, wann Sie im gleichen Thread weiterarbeiten und wann Sie neu beginnen.

## 4. Struktur statt Länge bevorzugen

- Wenn Sie eine bestimmte Ausgabeform brauchen, sagen Sie das von vornherein (z. B. „Antworte in Stichpunkten“ oder „Nutze diese Vorlage“).
- Kürzere, strukturierte Antworten verbrauchen oft weniger Tokens als lange, freie.

## 5. Mit Kontext-Hygiene kombinieren

Sauberer Kontext und weniger Tokens gehören zusammen: weniger irrelevanter Inhalt im Workspace und in der Konversation bedeutet, dass das Modell weniger lesen und verarbeiten muss. Siehe [LLM-Kontext-Hygiene](/learn/best-practices/llm-context-hygiene/) und das Tutorial [Session-Verwaltung](/learn/tutorials/session-management/), um alles zusammenzuführen.


---

Back to [Best Practices](https://rakenne.app/de/learn/best-practices/index.md)

