Przejdź do głównej zawartości

Zrozumienie okien kontekstu i limitów tokenów

Jesteś czterdzieści minut w sesji debugowania. Claude Code przeczytało dwanaście plików, uruchomiło sześć komend i stworzyło szczegółową analizę. Wtedy prosisz o wdrożenie poprawki i wynik jest bezsensowny — AI “zapomina” błąd, który właśnie zdiagnozowało, wymyśla API, które nie istnieje, i ignoruje strukturę plików, którą zmapowało pięć minut temu. Niczego nie zrobiłeś źle. Twoje okno kontekstu się zapełniło.

To nie jest przypadek brzegowy. To najczęstszy tryb awarii w programowaniu wspomaganym przez AI i jest całkowicie do uniknięcia, gdy zrozumiesz, jak okna kontekstu działają.

  • Konkretne zrozumienie, jak działają tokeny, okna kontekstu i kompaktowanie
  • Strategie monitorowania i zarządzania użyciem kontekstu dla każdego narzędzia
  • Prompty do odzyskiwania po wyczerpaniu kontekstu bez zaczynania od nowa
  • Zasady dotyczące ilości kontekstu zużywanego przez różne typy zadań

Okno kontekstu mierzone jest w tokenach. Tokeny to nie słowa — to fragmenty tekstu, które model przetwarza. Orientacyjnie: 1000 tokenów to około 750 słów, czyli około 40 linii kodu.

Wszystko w sesji zużywa tokeny:

CoPrzybliżony koszt tokenowy
Twój prompt (kilka zdań)50-200 tokenów
Typowy plik źródłowy (200 linii)800-1500 tokenów
Duży plik (1000 linii)4000-7000 tokenów
Wynik komendy (npm test, 50 linii)200-500 tokenów
Odpowiedź AI (akapit + kod)300-1000 tokenów
Historia rozmowy (10 wymian)5000-15 000 tokenów

Aktualne rozmiary okien kontekstu:

ModelOkno kontekstuPraktyczna pojemność
Claude Opus 4.6200K tokenów~120K przed degradacją
Claude Sonnet 4.5200K tokenów~120K przed degradacją
GPT-5.3-Codex200K tokenów~130K przed degradacją
GPT-5.2128K tokenów~80K przed degradacją
Gemini 3 Pro1M+ tokenów~600K przed degradacją

Kolumna “praktyczna pojemność” jest ważniejsza niż surowy limit. Wydajność modelu nie spada skokowo — spada stopniowo. Instrukcje z początku rozmowy są coraz mniej prawdopodobne do zastosowania w miarę zapełniania się okna.

Nie możesz zarządzać tym, czego nie mierzysz. Każde narzędzie oferuje inne sposoby śledzenia zużycia kontekstu.

Cursor pokazuje zużycie tokenów na pasku statusu panelu czatu. Obserwuj, czy procent zbliża się do 100%.

Gdy kontekst jest wysoki:

  • Rozpocznij nowy czat dla następnego zadania
  • Użyj wzmianek @ do wskazywania konkretnych plików zamiast pozwalać agentowi przeglądać
  • Zamknij nieistotne pliki w edytorze, aby zmniejszyć automatyczny kontekst

Tryb Max w Cursor odblokowuje większe okna kontekstu (Gemini 3 Pro z 1M+ tokenów) dla zadań, które naprawdę potrzebują szerokiego kontekstu. Używaj go oszczędnie — jest wolniejszy i droższy.

Strategia 1: Ściśle definiuj zakres każdego zadania

Dział zatytułowany „Strategia 1: Ściśle definiuj zakres każdego zadania”

Najskuteczniejsza strategia zarządzania kontekstem jest też najprostsza: rób jedną rzecz na sesję. Zamiast “zbuduj funkcję powiadomień,” rozbij to na zadania typu “dodaj tabelę powiadomień w bazie danych” i rozpocznij świeży kontekst dla każdego.

Zamiast wklejać duże pliki do promptu, wskaż je ścieżką. AI czyta je na żądanie, zużywając kontekst tylko wtedy, gdy jest to potrzebne.

Użyj wzmianek @ do precyzyjnego wskazywania plików:

Fix the bug in @src/services/auth.ts using the pattern from
@src/services/billing.ts. The test is in
@src/services/__tests__/auth.test.ts.

Wyszukiwanie semantyczne Cursor może również znaleźć odpowiedni kod według znaczenia, zmniejszając potrzebę podawania dokładnych plików.

Gdy musisz kontynuować długą sesję, kompaktowanie zachowuje istotny kontekst, zwalniając miejsce.

Rozpocznij nowy czat, ale odwołaj się do poprzedniej pracy:

I was just working on the rate limiter. The implementation is in
@src/middleware/rateLimiter.ts and tests are in
@src/middleware/__tests__/rateLimiter.test.ts. Both files are
already complete.
Next task: add Redis connection pooling to the rate limiter.

AI “zapomina” instrukcje z początku sesji. To najwyraźniejszy znak presji kontekstowej. Twoje wczesne instrukcje zostały wypchnięte lub zmniejszono ich wagę. Kompaktuj lub wyczyść, a następnie powtórz kluczowe ograniczenia w nowym prompcie.

Kompaktowanie traci kluczowe szczegóły. Kompaktowanie to proces podsumowania — może pominąć szczegóły, na których ci zależy. Zawsze podawaj jawne wskazówki, co zachować. I trzymaj listę zadań i pliki planów na dysku, gdzie mogą być ponownie przeczytane, a nie tylko w historii rozmowy.

AI czyta za dużo plików. Niektóre agenty AI przeczytają 20 plików, aby odpowiedzieć na proste pytanie. Jeśli zauważysz nadmierne czytanie plików, przerwij i sam podaj konkretne pliki. Powiedz AI, żeby nie eksplorowało szeroko.

Płacisz za zmarnowany kontekst. Każdy token kosztuje, zwłaszcza na potężnych modelach jak Claude Opus 4.6. Jeśli regularnie osiągasz limity kontekstu, prawdopodobnie nie definiujesz zadań wystarczająco ściśle. Zobacz przewodnik po kosztach kontekstu dla strategii optymalizacji.