Zrozumienie okien kontekstu i limitów tokenów
Jesteś czterdzieści minut w sesji debugowania. Claude Code przeczytało dwanaście plików, uruchomiło sześć komend i stworzyło szczegółową analizę. Wtedy prosisz o wdrożenie poprawki i wynik jest bezsensowny — AI “zapomina” błąd, który właśnie zdiagnozowało, wymyśla API, które nie istnieje, i ignoruje strukturę plików, którą zmapowało pięć minut temu. Niczego nie zrobiłeś źle. Twoje okno kontekstu się zapełniło.
To nie jest przypadek brzegowy. To najczęstszy tryb awarii w programowaniu wspomaganym przez AI i jest całkowicie do uniknięcia, gdy zrozumiesz, jak okna kontekstu działają.
Czego się nauczysz
Dział zatytułowany „Czego się nauczysz”- Konkretne zrozumienie, jak działają tokeny, okna kontekstu i kompaktowanie
- Strategie monitorowania i zarządzania użyciem kontekstu dla każdego narzędzia
- Prompty do odzyskiwania po wyczerpaniu kontekstu bez zaczynania od nowa
- Zasady dotyczące ilości kontekstu zużywanego przez różne typy zadań
Jak działają okna kontekstu
Dział zatytułowany „Jak działają okna kontekstu”Okno kontekstu mierzone jest w tokenach. Tokeny to nie słowa — to fragmenty tekstu, które model przetwarza. Orientacyjnie: 1000 tokenów to około 750 słów, czyli około 40 linii kodu.
Wszystko w sesji zużywa tokeny:
| Co | Przybliżony koszt tokenowy |
|---|---|
| Twój prompt (kilka zdań) | 50-200 tokenów |
| Typowy plik źródłowy (200 linii) | 800-1500 tokenów |
| Duży plik (1000 linii) | 4000-7000 tokenów |
| Wynik komendy (npm test, 50 linii) | 200-500 tokenów |
| Odpowiedź AI (akapit + kod) | 300-1000 tokenów |
| Historia rozmowy (10 wymian) | 5000-15 000 tokenów |
Aktualne rozmiary okien kontekstu:
| Model | Okno kontekstu | Praktyczna pojemność |
|---|---|---|
| Claude Opus 4.6 | 200K tokenów | ~120K przed degradacją |
| Claude Sonnet 4.5 | 200K tokenów | ~120K przed degradacją |
| GPT-5.3-Codex | 200K tokenów | ~130K przed degradacją |
| GPT-5.2 | 128K tokenów | ~80K przed degradacją |
| Gemini 3 Pro | 1M+ tokenów | ~600K przed degradacją |
Kolumna “praktyczna pojemność” jest ważniejsza niż surowy limit. Wydajność modelu nie spada skokowo — spada stopniowo. Instrukcje z początku rozmowy są coraz mniej prawdopodobne do zastosowania w miarę zapełniania się okna.
Monitorowanie użycia kontekstu
Dział zatytułowany „Monitorowanie użycia kontekstu”Nie możesz zarządzać tym, czego nie mierzysz. Każde narzędzie oferuje inne sposoby śledzenia zużycia kontekstu.
Cursor pokazuje zużycie tokenów na pasku statusu panelu czatu. Obserwuj, czy procent zbliża się do 100%.
Gdy kontekst jest wysoki:
- Rozpocznij nowy czat dla następnego zadania
- Użyj wzmianek
@do wskazywania konkretnych plików zamiast pozwalać agentowi przeglądać - Zamknij nieistotne pliki w edytorze, aby zmniejszyć automatyczny kontekst
Tryb Max w Cursor odblokowuje większe okna kontekstu (Gemini 3 Pro z 1M+ tokenów) dla zadań, które naprawdę potrzebują szerokiego kontekstu. Używaj go oszczędnie — jest wolniejszy i droższy.
Claude Code wyświetla zużycie kontekstu na pasku statusu. Możesz dostosować linię statusu, aby stale pokazywała liczbę tokenów:
# Dodaj do konfiguracji shella, aby pokazać tokeny w linii statusu# Komenda /status w Claude Code również pokazuje bieżące zużycieGdy kontekst się zapełnia:
- Uruchom
/compact, aby podsumować rozmowę zachowując kluczowe decyzje - Uruchom
/compact Focus on the API changes, aby pokierować, co ma być zachowane - Uruchom
/clear, aby całkowicie zresetować między niepowiązanymi zadaniami - Claude Code automatycznie kompaktuje przy zbliżaniu się do limitów
Auto-kompaktowanie zachowuje wzorce kodu, stany plików i kluczowe decyzje, odrzucając mniej istotną historię rozmowy.
Codex monitoruje i raportuje pozostałą przestrzeń kontekstu. Model automatycznie kompaktuje kontekst, podsumowując informacje i odrzucając mniej istotne szczegóły.
Gdy kontekst jest wysoki:
- Rozpocznij nowy wątek dla następnego zadania
- Rozbij złożone zadania na wiele skupionych wątków
- Użyj wątków chmurowych do długotrwałych zadań — mają dostęp do pełnego kontekstu modelu bez konkurowania z twoją lokalną sesją
Codex może kontynuować pracę przez wiele kroków dzięki powtarzanemu kompaktowaniu, co czyni go skutecznym w złożonych, wieloetapowych zadaniach.
Strategie utrzymywania się w granicach
Dział zatytułowany „Strategie utrzymywania się w granicach”Strategia 1: Ściśle definiuj zakres każdego zadania
Dział zatytułowany „Strategia 1: Ściśle definiuj zakres każdego zadania”Najskuteczniejsza strategia zarządzania kontekstem jest też najprostsza: rób jedną rzecz na sesję. Zamiast “zbuduj funkcję powiadomień,” rozbij to na zadania typu “dodaj tabelę powiadomień w bazie danych” i rozpocznij świeży kontekst dla każdego.
Strategia 2: Wskazuj, nie wklejaj
Dział zatytułowany „Strategia 2: Wskazuj, nie wklejaj”Zamiast wklejać duże pliki do promptu, wskaż je ścieżką. AI czyta je na żądanie, zużywając kontekst tylko wtedy, gdy jest to potrzebne.
Użyj wzmianek @ do precyzyjnego wskazywania plików:
Fix the bug in @src/services/auth.ts using the pattern from@src/services/billing.ts. The test is in@src/services/__tests__/auth.test.ts.Wyszukiwanie semantyczne Cursor może również znaleźć odpowiedni kod według znaczenia, zmniejszając potrzebę podawania dokładnych plików.
Wskaż pliki w prompcie i pozwól Claude je przeczytać:
Fix the bug in src/services/auth.ts. Look at the pattern insrc/services/billing.ts for reference. Run the test insrc/services/__tests__/auth.test.ts afterward.Claude przeczyta tylko pliki, których potrzebuje. Możesz też użyć importów CLAUDE.md ze składnią @path/to/file, aby wstępnie załadować kluczowe pliki referencyjne.
Codex zbiera kontekst z zawartości plików i wyników narzędzi w miarę pracy. Podaj konkretne referencje do plików, aby go pokierować:
Fix the bug in src/services/auth.ts. Reference the pattern insrc/services/billing.ts. Run tests insrc/services/__tests__/auth.test.ts to verify.W rozszerzeniu IDE otwarte pliki stają się automatycznym kontekstem, więc trzymaj otwarte tylko istotne pliki.
Strategia 3: Kompaktuj agresywnie
Dział zatytułowany „Strategia 3: Kompaktuj agresywnie”Gdy musisz kontynuować długą sesję, kompaktowanie zachowuje istotny kontekst, zwalniając miejsce.
Rozpocznij nowy czat, ale odwołaj się do poprzedniej pracy:
I was just working on the rate limiter. The implementation is in@src/middleware/rateLimiter.ts and tests are in@src/middleware/__tests__/rateLimiter.test.ts. Both files arealready complete.
Next task: add Redis connection pooling to the rate limiter.Użyj /compact ze wskazówkami, co zachować:
/compact Preserve the list of files modified, the test commands,and the architectural decisions about the rate limiter. Discardthe debugging conversation.Możesz też użyć menu cofania (Escape+Escape), aby podsumować od konkretnego punktu, zachowując wcześniejszy kontekst, a kompresując niedawną eksplorację.
Codex kompaktuje automatycznie. Dla ręcznej kontroli rozpocznij nowy wątek z promptem podsumowującym:
Continuing from previous work: I implemented a rate limiter atsrc/middleware/rateLimiter.ts with Redis backend. Tests pass.
Next: add connection pooling. Read the current implementationand extend it.Gdy coś nie działa
Dział zatytułowany „Gdy coś nie działa”AI “zapomina” instrukcje z początku sesji. To najwyraźniejszy znak presji kontekstowej. Twoje wczesne instrukcje zostały wypchnięte lub zmniejszono ich wagę. Kompaktuj lub wyczyść, a następnie powtórz kluczowe ograniczenia w nowym prompcie.
Kompaktowanie traci kluczowe szczegóły. Kompaktowanie to proces podsumowania — może pominąć szczegóły, na których ci zależy. Zawsze podawaj jawne wskazówki, co zachować. I trzymaj listę zadań i pliki planów na dysku, gdzie mogą być ponownie przeczytane, a nie tylko w historii rozmowy.
AI czyta za dużo plików. Niektóre agenty AI przeczytają 20 plików, aby odpowiedzieć na proste pytanie. Jeśli zauważysz nadmierne czytanie plików, przerwij i sam podaj konkretne pliki. Powiedz AI, żeby nie eksplorowało szeroko.
Płacisz za zmarnowany kontekst. Każdy token kosztuje, zwłaszcza na potężnych modelach jak Claude Opus 4.6. Jeśli regularnie osiągasz limity kontekstu, prawdopodobnie nie definiujesz zadań wystarczająco ściśle. Zobacz przewodnik po kosztach kontekstu dla strategii optymalizacji.