Przejdź do głównej zawartości

Zarządzanie dużymi bazami kodu

Praca w dużej bazie kodu - setki tysięcy, a nawet miliony linii kodu - przedstawia unikalny zestaw wyzwań dla każdego developera, ludzkiego czy AI. Sama objętość informacji może być przytłaczająca. Jednak przyjmując konkretne strategie zarządzania kontekstem, możesz z powodzeniem wykorzystać swojego asystenta AI jako potężnego partnera nawet w najbardziej złożonych projektach.

Ten przewodnik obejmuje podstawowe techniki skalowania rozwoju wspomaganego przez AI do dużych baz kodu.

Dla dużych projektów indeksowanie bazy kodu to nie tylko funkcja; to konieczność. Ten proces tworzy semantyczną mapę (embeddingi wektorowe) całego twojego projektu, pozwalając AI na wykonywanie inteligentnych wyszukiwań i rozumienie relacji między różnymi częściami kodu, nawet tymi, które nie są jawnie w oknie kontekstu.

  • Jak to działa: Kiedy zadajesz pytanie typu “Gdzie obsługiwana jest nasza logika przetwarzania płatności?”, AI używa indeksu do znalezienia najbardziej istotnych fragmentów kodu z całego projektu, nawet jeśli pliki nie są otwarte.
  • Dlaczego to kluczowe: Bez indeksowania AI jest skutecznie ślepy na jakikolwiek kod poza bezpośrednimi plikami, które mu dostarczasz. Z indeksowaniem ma “fotograficzną pamięć” całej twojej bazy kodu, umożliwiając rozumowanie o zmianach systemowych i złożonych zależnościach.

Nawet z kompleksowym indeksem jakość twoich promptów ma znaczenie. Okno kontekstu to ograniczony i cenny zasób. Używaj go mądrze.

Preferuj symbole nad plikami

Kiedy to możliwe, odwołaj się do konkretnej funkcji lub klasy (@MyClassName) zamiast całego pliku (@my-class.ts). To dostarcza AI bardziej skupiony i mniej zaszumiony kontekst.

Zacznij małe i rozwijaj

Rozpocznij zadanie dostarczając tylko najkrytyczniejsze jeden lub dwa pliki jako kontekst. Zawsze możesz dodać więcej plików do rozmowy później, jeśli AI potrzebuje więcej informacji. To zapobiega utknięciu AI w nieistotnych szczegółach na początku.


Nigdy nie proś AI o wykonanie ogromnych, otwartych zadań jak “refaktoryzuj cały system uwierzytelniania”. To przytłoczy model i doprowadzi do słabych rezultatów. Zamiast tego podziel duże problemy na serię mniejszych, dobrze zdefiniowanych pod-zadań.

  1. Wygeneruj plan. Użyj trybu “zapytania”, aby stworzyć wysokopoziomowy plan. Dla dużej migracji możesz zapytać: “Wygeneruj listę kontrolną markdown wszystkich plików, które muszą być zaktualizowane dla aktualizacji React 19.”

  2. Wykonuj krok po kroku. Przełącz na tryb “agenta” i podejmij się listy kontrolnej jeden element na raz. “Używając listy kontrolnej, proszę zaktualizuj pierwszy plik, Button.tsx, aby używał nowego hooka use.”

  3. Weryfikuj i iteruj. Po każdym kroku uruchom swoje testy i zweryfikuj zmiany. To przyrostowe podejście czyni proces zarządzalnym, możliwym do przejrzenia i znacznie bardziej niezawodnym niż pojedyncza zmiana “big bang”.


W długiej i złożonej sesji pracy sama historia rozmowy może stać się źródłem przestarzałego lub nieistotnego kontekstu.

  • Użyj /clear: Kiedy przełączasz się z jednego odrębnego zadania na inne (np. z naprawiania błędu w backendzie na pracę nad nowym komponentem UI), użyj polecenia /clear, aby zresetować rozmowę i zacząć z czystą kartą.
  • Rozpocznij nowe czaty dla nowych zadań: Prosty, ale potężny nawyk to rozpoczynanie zupełnie nowego czatu dla każdej nowej funkcji lub znaczącej naprawy błędu. To zapewnia, że kontekst AI jest zawsze ściśle skupiony na wykonywanym zadaniu.

Łącząc moc indeksowania całej bazy kodu z dyscypliną skupionego kontekstu i dekompozycji zadań, możesz skutecznie pokonać wyzwania skali i uczynić swojego asystenta AI niezastąpionym partnerem w każdym projekcie, niezależnie od jego wielkości.