Przejdź do głównej zawartości

Książka kucharska dla deweloperów AI

Twój zespół właśnie zaadoptował narzędzia AI do kodowania i wszyscy zadają to samo pytanie: “Co właściwie mam wpisać w pole promptu?” Ta książka kucharska odpowiada na to pytanie z 500+ sprawdzonymi w boju, gotowymi do wklejenia promptami zorganizowanymi według stosu technologicznego. Bez teorii, bez zbędnych treści — tylko przepisy, które działają, kiedy wklejasz je do Cursor, Claude Code lub Codex.

  • Gotowe do wklejenia prompty dla każdego głównego frameworka i języka
  • Przepisy, które działają we wszystkich trzech narzędziach z wariantami specyficznymi dla narzędzi tam, gdzie ma to znaczenie
  • Prawdziwe scenariusze wyciągnięte z produkcyjnych baz kodu, nie zabawkowe przykłady
  • Oczekiwane outputy, abyś wiedział, jak wygląda dobry rezultat

Każdy przepis w tej książce kucharskiej podąża za tym samym formatem:

  1. Scenariusz — rzeczywisty problem, który rozwiązujesz
  2. Prompt — dokładny tekst do wklejenia do twojego narzędzia, wewnątrz bloku Aside, aby się wyróżniał
  3. Oczekiwany output — co AI powinno wyprodukować, abyś mógł zweryfikować jakość
  4. Warianty narzędziTabs pokazujące różnice między Cursor, Claude Code i Codex tam, gdzie przepływ pracy się różni

Wybierz swój stos i wklej prompt. Oto przedsmak tego, co oferuje każda sekcja:

Otwórz tryb Agent za pomocą Cmd/Ctrl + I i wklej dowolny prompt przepisu. Cursor wykona edycje plików, uruchomi komendy terminala i będzie iterował, aż zadanie będzie ukończone. Użyj Cmd/Ctrl + K dla edycji inline pojedynczego pliku.

  • Adaptuj, nie wklejaj ślepo. Zastąp szczegóły specyficzne dla technologii (nazwy baz danych, endpointy API) swoimi własnymi, ale zachowaj strukturę promptu nienaruszoną.
  • Łącz przepisy razem. Przepis na backend API, po którym następuje przepis testowy, a następnie przepis Docker, daje ci kompletny pipeline funkcjonalności.
  • Zacznij od modelu, który pasuje. Claude Opus 4.6 dla złożonych zadań wieloplikowych. Claude Sonnet 4.5 dla szybkich iteracji. Gemini 3 Pro, gdy potrzebujesz masywnego kontekstu. GPT-5.3-Codex dla workflow natywnych dla Codex.
  • Używaj serwerów MCP dla kontekstu live. Serwery database MCP, Figma MCP, GitHub MCP — te dają AI rzeczywiste dane zamiast zgadywania.

Wybierz kategorię powyżej i zacznij gotować. Każdy przepis jest samodzielny — nie musisz czytać ich w kolejności. Jeśli jesteś nowy w rozwoju wspomaganym AI, zacznij od wzorców React lub wzorców Node.js dla najbardziej kompleksowych wprowadzeń.