Przejdź do głównej zawartości

Zarządzanie kontekstem

Każda interakcja z asystentem AI do kodowania to problem zarządzania kontekstem. AI może pracować tylko z tym, co “widzi” — a to, co widzi, jest ograniczone skończonym oknem kontekstu, które szybko się zapełnia. Podaj za mało kontekstu, a AI będzie halucynować. Podaj za dużo, a straci skupienie. Podaj błędny kontekst, a rozwiąże zły problem.

Programiści, którzy uzyskują najlepsze wyniki z Cursor, Claude Code i Codex, niekoniecznie są lepszymi prompterami. Są lepsi w zarządzaniu kontekstem: wiedzą, co włączyć, co wyłączyć i kiedy zresetować.

Asystenci AI do kodowania działają w ramach okna kontekstu — stałej ilości tokenów (z grubsza — fragmentów tekstu), które model może przetworzyć na raz. Wszystko trafia do tego okna: twoje prompty, pliki odczytane przez AI, historia rozmowy, wyniki komend i własne odpowiedzi AI.

Gdy okno się zapełnia, wydajność spada. AI zaczyna “zapominać” wcześniejsze instrukcje, pomijać szczegóły i podejmować coraz gorsze decyzje. To nie jest błąd, który można obejść lepszym promptem. To fundamentalne ograniczenie sposobu działania dużych modeli językowych.

Zarządzanie kontekstem to praktyka utrzymywania właściwych informacji w oknie i właściwych informacji poza nim.

Okna kontekstu

Zrozum limity tokenów, jak kontekst się zapełnia i strategie utrzymywania się w granicach. Dowiedz się, kiedy kompaktować, kiedy czyścić i kiedy zaczynać nową sesję.

Organizacja plików

Zorganizuj projekt tak, aby AI mogło szybko znaleźć odpowiedni kod. Dobra organizacja plików zmniejsza liczbę plików, które AI musi przeczytać, utrzymując kontekst w skupieniu.

Dokumentacja jako kontekst

Użyj CLAUDE.md, .cursor/rules, AGENTS.md i dokumentacji projektu jako trwałego, wielokrotnego kontekstu, który ładuje się automatycznie w każdej sesji.

Indeksowanie bazy kodu

Wykorzystaj wyszukiwanie semantyczne i indeksowanie, aby pomóc AI w znajdowaniu odpowiedniego kodu według znaczenia, a nie tylko nazwy pliku. Zrozum, jak każde narzędzie indeksuje bazę kodu w inny sposób.

Wzorce pamięci

Utrzymuj ważny kontekst pomiędzy sesjami. Auto-pamięć, reguły projektu i pliki instrukcji pozwalają AI pamiętać wzorce, konwencje i wyciągnięte wnioski.

Koszt kontekstu

Każdy token kosztuje. Poznaj strukturę kosztów kontekstu w różnych narzędziach i modelach oraz zoptymalizuj stosunek jakości do kosztu.

Każda interakcja z AI obejmuje dwa typy kontekstu, a mylenie ich to najczęstsza przyczyna słabych wyników.

Kontekst intencji: 'Co'

Co chcesz, żeby AI zrobiło. Twoje instrukcje, cele i ograniczenia. “Zrefaktoryzuj tę funkcję na async/await.” “Dodaj walidację danych wejściowych do endpointu rejestracji.” “Napisz testy dla modułu rozliczeń.” Jasny kontekst intencji zapobiega zgadywaniu przez AI, czego chcesz.

Kontekst stanu: 'Gdzie'

Aktualny stan kodu, błędy, środowisko. Zawartość plików, stack trace’y, wyniki testów i istniejące wzorce. AI potrzebuje kontekstu stanu, aby zrozumieć przestrzeń problemu. Bez niego AI wymyśla kod, który nie pasuje do twojej bazy kodu.

Świetny prompt łączy oba elementy: kontekst stanu (oto kod, oto błąd) plus kontekst intencji (napraw to robiąc tamto). Większość problemów wynika z podania jednego bez drugiego — lub z podania tak dużo kontekstu stanu, że intencja gubi się w szumie.

Jeśli z całej tej sekcji zrobisz tylko trzy rzeczy, niech to będą te:

  1. Czyść kontekst między niepowiązanymi zadaniami. Użyj /clear w Claude Code, rozpocznij nowy czat w Cursor lub stwórz nowy wątek w Codex. Resztki kontekstu z poprzedniego zadania to najczęstsza przyczyna słabych odpowiedzi AI.

  2. Odwołuj się do konkretnych plików, nie całych katalogów. Zamiast “spójrz na folder src,” wskaż AI dokładne pliki, których potrzebuje. To utrzymuje kontekst w skupieniu i redukuje szum.

  3. Napisz CLAUDE.md / reguły projektu / AGENTS.md. Nawet 10-liniowy plik z komendami budowania, test runnerem i kluczowymi konwencjami oszczędza kontekst w każdej sesji, bo AI nie musi ponownie odkrywać tych informacji.